4EWQE 发表于 2017-11-7 11:26:16

Elasticsearch+logstash+kibana实现日志分析

一、前言


Elastic Stack(旧称ELK Stack),是一种能够从任意数据源抽取数据,并实时对数据进行搜索、分析和可视化展现的数据分析框架。(hadoop同一个开发人员)
java 开发的开源的全文搜索引擎工具
基于lucence搜索引擎的

采用 restful - api 标准的

高可用、高扩展的分布式框架

实时数据分析的

官方网站: https://www.elastic.co/products


为什么要用elk?
服务器众多,组件众多,日志众多
发现问题困难,技能要求高

日志主要包括系统日志、应用程序日志和安全日志。

系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。

通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。

当务之急我们使用集中化的日志管理,例如:开源的 syslog ,将所有服务器上的日志收集汇总。

集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用 grep 、 awk和 wc 等 Linux 命令能实现检索和统计,

但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。

开源实时日志分析 ELK 平台能够完美的解决我们上述的问题, ELK 由 ElasticSearch 、 Logstash 和 Kiabana 三个开源工具组成。



二、安装过程


先安装java环境
# yum install -y java-1.8.0-openjdk

上传在官网下载好的包(官网:https://www.elastic.co/downloads/elasticsearch)
在解压目录下创建,log,data文件目录:
修改elastic.yaml:主机名字
node.name: node-1

修改elastic.yaml:监听主机
network.host: 192.168.113.193

开启 haed 插件
http.cors.enabled:true
http.cors.allow-origin:"*"

创建启动elasticsearch 的普通用户
# useradd xhk
# passwd xhk

给予用户目录的权限
# chown -R xhk:xhk /usr/local/src/elasticsearch-5.6.3

启动之前,有几个参数要修改,否则会报错
问题1、max file descriptors for elasticsearch process likely toolow, increase to at least
修改/etc/security/limits.conf,添加或修改下列参数
*       hard    nofile         65536
*       soft    nofile         65536



问题2、: max virtual memory areas vm.max_map_count is too low,increase to at least
修改/etc/sysctl.conf,添加或修改下列参数
vm.max_map_count=262144
添加后记得敲 sysctl -p ,使配置生效

接下来,切换到用户 xhk,启动elasticsearch
# su – xhk
$ /usr/local/src/elasticsearch-5.6.3/bin/elasticsearch
启动elastic:直接用curl访问9200端口成功即可


=====================================================================================


还可以为其安装一个head插件
安装需要的包
# yum install -y git npm openssl

先在目录下创建一个名为 head 的文件夹
# cd /usr/local/src/elasticsearch-5.6.3
# mkdir head
# git clonegit://github.com/mobz/elasticsearch-head.git
# cd elasticsearch-head/
# npm install
# npm install -g grunt-cli

修改配置文件
# vim /usr/local/src/elasticsearch-5.6.3/head/elasticsearch-head/Gruntfile.js

1
2
3
4
5
6
7
8
9
    server: {
         options: {
               port: 9100,
               hostname: '0.0.0.0',   #####添加这句。
               base: '.',
                      keepalive: true
                           }
                  }
            }





启动服务,并用网页访问192.168.163.193:9100
# grunt server
https://s3.51cto.com/oss/201711/06/7561d2c8eb27ed3821bae559bb80ec23.png-wh_500x0-wm_3-wmp_4-s_33656517.png

==============================================================================
接下来安装logstash,这个就很容易安装了,直接解压然后进入目录使用就行了
# cd /usr/local/src
# tar xf logstash-5.6.3.tar.gz
# mkdir /logstash
# cd /logstash/

找一段nginx默认日志,并传入到elasticsearch
# vim input_output.conf

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
input {
   file {
       path => "/logstash/xhk.txt"
       type => "nginxlog"
       start_position => "beginning"
    }
}
filter{
   grok {
       match => {
       "message" => "%{IPORHOST:IP} - %{USER:User}\[%{HTTPDATE:Time}\] \"%{WORD:HTTP_Method} %{NOTSPACE:Request}HTTP/%{NUMBER:HTTP_Version}\" %{NUMBER:Status} (?:%{NUMBER:Bytes}|-)\"(?:%{URI:HTTP_Referer}|-)\"\"%{GREEDYDATA:User_Agent}\""
    }
    }
}
output{
    elasticsearch {
      action => "index"
      hosts=>"192.168.163.193:9200"
      index=>"xhk-%{+yyyy.MM.dd}"
   }
   stdout {
   codec => rubydebug
    }
}





执行命令传入命令
# /usr/local/src/logstash/bin/logstash -f input_output.conf

传入的时候,elasticsearch 可能会出现该报错
[WARN] duration ,collections /, total /, memory->/, all_pools {->/}{ ->/}{->/}
[WARN ] overhead, spent collecting in the last

解决:
# vim /usr/local/src/elasticsearch-5.6.3/config/jvm.options
添加以下2个参数
Xmx=300m
Xms=300m

=====================================================================================


安装kibana
传入一个rpm包直接yum安装
# cd /usr/local/src/
# ls
kibana-5.6.3-x86_64.rpm
# yum install -y kibana-5.6.3-x86_64.rpm

修改配置文件,指向elasticsearch
# vim /etc/kibana/kibana.yml
elasticsearch.url: http://192.168.163.194:9200
server.host: "192.168.163.196"


启动服务
# systemctl start kibana

使用浏览器访问 http://192.168.163.193:5601

看雪 发表于 2017-11-8 08:04:21

路过帮顶!!!
页: [1]
查看完整版本: Elasticsearch+logstash+kibana实现日志分析