ELK(ElasticSearch+Logstash+ Kibana)搭建实时日志分析平台
一、准备工具:(Centos7)
1、Elasticsearch:ElasticSearch是一个基于Lucene构建的开源,分布式,RESTful搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。
2、Logstash:是一个完全开源的工具,他可以对你的日志进行收集、分析,并将其存储供以后使用(如,搜索),您可以使用它。说到搜索,logstash带有一个web界面,搜索和展示所有日志。
3、kibana: 是一个为 ElasticSearch 提供日志分析的 Web UI工具,可使用它对日志进行高效的搜索、可视化、分析等各种操作。
二、实验
安装java环境
[root@elk src]# yum install -y java-1.8.0-openjdk* 安装ElasticSearch
[root@elk src]# wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.3.tar.gz
[root@elk src]# tar xf elasticsearch-5.6.3.tar.gz
创建普通用户,用于启动ElasticSearch
[root@elk src]# useradd elk
[root@elk src]# chown -R elk:elkelasticsearch-5.6.3
修改配置文件
[root@elk ~]# cd/usr/local/src/elasticsearch-5.6.3/config/
[root@elk config]# vim elasticsearch.yml
node.name: elk
http.port: 9200
network.host: 10.0.0.128
启动测试:
[root@elk src]# su – elk
[elk@elk src]$ cd elasticsearch-5.6.3/bin/
[elk@elk bin]$ ./elasticsearch ##出错
[1]: max file descriptors [4096] forelasticsearch process is too low, increase to at least [65536]
[2]: max virtual memory areasvm.max_map_count [65530] is too low, increase to at least [262144]
##解决方法:
[root@elk ~]# vim /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 2048
* hard nproc 4096[root@elk ~]# vim /etc/sysctl.conf
vm.max_map_count=262144
#重启生效
安装head:方便查看索引,集群等相关状态
创建插件存放目录(目录自定义)
[root@elk ~]# cd /usr/local/src/
[root@elk src]# mkdir head
[root@elk src]# cd head/
[root@elk src]# yum install -y git
[root@elk head]# git clonegit://github.com/mobz/elasticsearch-head.git
正克隆到 'elasticsearch-head'...
remote: Counting objects: 4224, done.
remote: Total 4224 (delta 0), reused 0(delta 0), pack-reused 4224
接收对象中: 100% (4224/4224), 2.15 MiB | 223.00KiB/s, done.
处理 delta 中: 100%(2329/2329), done.
[root@elk head]# cd elasticsearch-head/
[root@elk elasticsearch-head]# yum install-y npm
[root@elk elasticsearch-head]# npm install
[root@elk elasticsearch-head]# npm install-g grunt-cli
[root@elk elasticsearch-head]# grunt server #运行
修改配置文件监听端口为localhost
[root@elk ~]# vim /usr/local/src/head/elasticsearch-head/Gruntfile.j
server: {
options: {
port: 9100,
hostname: '0.0.0.0', #添加这句
base: '.',
keepalive: true
}
}
修改es配置文件,添加如下:
[root@elk ~]# vim/usr/local/src/elasticsearch-5.6.3/config/elasticsearch.yml
http.cors.enabled:true
http.cors.allow-origin:"*"
#重启es服务
启动head插件,然后访问web的ip即可
[root@elk elasticsearch-head]# grunt server
安装logstash
[root@elk src]# wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.3.tar.gz
[root@elk src]# tar zx logstash-5.6.3.tar.gz
[root@elk src]# cd logstash-5.6.3/bin/
创建导入到elasticsearch的配置文件:
[root@zxb ~]# vim /logstash/nginx.conf
input {
file {
path => "/usr/local/nginx/log/access.log" #输入的数据位置
type => "test"
start_position => "beginning" #从文件开始出读
}
}
filter{
grok {
match => {
"message" => "%{IPORHOST:IP} - %{USER:User} \[%{HTTPDATE:Time}\] \"%{WORD:HTTP_Method} %{NOTSPACE:Request} HTTP/%{NUMBER:HTTP_Version}\" %{NUMBER:Status} (?:%{NUMBER:Bytes}|-) \"(?:%{URI:HTTP_Referer}|-)\" \"%{GREEDYDATA:User_Agent}\"" ##nginx默认格式
}
}
}
output {
elasticsearch {
action => "index"
hosts => "10.0.0.128:9200"
index => "log-%{+yyyy.MM.dd}" ##索引名
}
stdout {
codec => rubydebug
}
}
安装kibana
[root@elk src]# wget https://artifacts.elastic.co/downloads/kibana/kibana-5.6.3-x86_64.rpm
[root@elk src]# rpm -ivhkibana-5.6.3-x86_64.rpm #配置文件位于: /etc/kibana/kibana.yml
默认链接的是elasticsearch,修改配置文件
[root@elksrc]# vim /etc/kibana/kibana.yml
server.host:"0.0.0.0"
elasticsearch.url: http://10.0.0.128:9200
启动kibana服务,默认占用5601端口,可通过http://ip:5601访问
[root@elk ~]# /etc/init.d/kibana start
kibana started
[root@elk ~]# ps -ef |grep 5601
root 10343 9741 0 17:18 pts/1 00:00:00 grep --color=auto 5601
启动e l k, head(可查看状态):
##在启动logstash 可能会报错: OpenJDK64-Bit Server VM warning: INFO: os::commit_memory(0x00000000c5330000,986513408, 0) failed; error='Cannot allocate memory' (errno=12)
解决方法:
[root@elk bin]# vim/usr/local/src/elasticsearch-5.6.3/config/jvm.options
#修改如下:
-Xms300m
-Xmx300m 导入数据
[root@elk bin]# cd /usr/local/src/logstash-5.6.3/bin
[root@elk bin]# ./logstash -f /logstash/nginx.conf
可以查看访问10.0.0.128:9100(head)网页,看是否有数据导入
打开kibana界面,选择定义的索引,并创建
添加成功后,会发现有自定义的数据导入
创建一个关于状态码的图形
可以匹配多个条件
|