设为首页 收藏本站
查看: 2814|回复: 1

[经验分享] elk系统搭建并收集nginx日志-主要步骤

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2017-9-13 10:16:27 | 显示全部楼层 |阅读模式
                      一)简介
    elk系统是一套目前较为流行的日志收集分析系统,主要由elasticserch,logstash,kibana三部分组成,其中elasticsearch负责数据的存储,logstash负责日志的收集过滤,kibana负责日志的可视化部分。整个工作流程为logstash收集日志,过滤后输出并保存到elasticsearch中,最后用户通过kibana从elasticsearch中读取数据并处理。本文中日志收集引入filebeat收集日志,logstash监听在5000端口并接受filebeat传入的日志。

各组件分配如下:

192.168.1.17filebeat
192.168.1.18elk

二)搭建过程
    1.在官方网站下载安装包
https://www.elastic.co/cn/downloads
    2.因为elk依赖java开发环境,所以首先安装jdk
yum install java-1.8.0-openjdk
    3.安装elk(192.168.1.18主机上)
yum install elasticsearch-5.5.2.rpm kibana-5.5.2-x86_64.rpm logstash-5.5.2.rpm
    4.创建elasticsearch数据存储目录并赋予权限
mkdir -p  /data/elasticsearch
chown  elasticsearch.elasticsearch /data/elasticsearch
    5.修改elasticsearch配置文件,更改其中的数据存储路径
vim /etc/elasticsearch/elasticsearch.yml
path.data: /data/elasticsearch
    6.启动elasticsearch服务,并查看9200端口是否处于监听状态
systemctl start elasticsearch
ss  -tnl
    7.修改kibana配置文件,改变其监听的ip地址
vim /etc/kibana/kibana.yml
server.host: "0.0.0.0"  (也可更改为192.168.1.17,此处主要是为了方便访问)
    8.启动kibana服务并查看端口
systemctl start kibana
ss -tnl
    9.在/etc/logstash/conf.d/目录中添加logstash配置文件nginx.conf
input {
            beats {
            port => 5000
            type => "logs"
            }
        }

        filter {
          if [type] == "nginx-all" {
          grok {
          match => [ "message","(?:%{IPORHOST:clientip}|-) - %{NOTSPACE:remote_user} \[%{HTTPDATE:timestamp}\] \"(?:%{WORD:verb} %{NOTSPACE:request}(?: HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})\" %{NUMBER:response} (?:%{NUMBER:bytes}|-) %{QS:referrer} %{QS:agent} \"(?:%{IPV4:http_x_forwarded_for}|-)\"" ]
           }
            geoip {
            source => "clientip"
            add_field => [ "[geoip][coordinates]", "%{[geoip][longitude]}" ]
            add_field => [ "[geoip][coordinates]", "%{[geoip][latitude]}" ]
           }

         mutate {
           convert => [ "[geoip][coordinates]", "float" ]
           convert => [ "response","integer" ]
           convert => [ "bytes","integer" ]
         }

         syslog_pri {}
         date {
               match => [ "timestamp" , "dd/MMM/YYYY:HH:mm:ss Z" ]
           }
          }
         }

        output {
             elasticsearch {
                 hosts => ["127.0.0.1:9200"]
                 index => "logstash-nginx-access-%{+YYYY.MM.dd}"
             }
             stdout { codec => rubydebug }
          }

        input段:表示监听的端口以及类型
        filter段:
        grok:日志的匹配,数据结构转换,需要根据日志的具体格式进行匹配,匹配格式可以参考https://grokdebug.herokuapp.com/patterns,匹配结果可以在https://grokdebug.herokuapp.com/中进行验证
        geoip:获取ip,以便最后显示地理位置,部分系统可能需要安装geoip
        mutate:数据类型转换
        date:用日志中的时间对timestamp进行转换,若不做转换,在导入老数据的时候系统会根据当前时间排序
        output段:输出到elasticsearch中

    10.启动logstash服务并查看端口
systemctl start logstash
ss -tnl
    11.安装filebeat(192.168.1.17)
yum install filebeat-5.5.2-x86_64.rpm  (包需要提前下载)
    12.修改配置文件/etc/filebeat/filebeat.yml
    filebeat:
        spool_size: 1024
        idle_timeout: 5s
        registry_file: .filebeat
        config_dir: /etc/filebeat/conf.d
    output:
        logstash:
        hosts:
        - 192.168.1.18:5000
        enabled: true
    shipper: {}
    logging: {}
    runoptions: {}

    其中output中host指向logstash

    13.创建/etc/filebeat/conf.d/目录。并添加配置文件nginx.yml
        filebeat:
            prospectors:
                - paths:
                    - /var/log/nginx/access.log
                    encoding: plain
                    fields_under_root: false
                    input_type: log
                    ignore_older: 24h
                    document_type: nginx-all
                    scan_frequency: 10s
                    harvester_buffer_size: 16384
                    tail_files: false
                    force_close_files: false
                    backoff: 1s
                    max_backoff: 1s
                    backoff_factor: 2
                    partial_line_waiting: 5s
                    max_bytes: 10485760

其中path指向需要收集的日志文件,type需要与logstash配置文件中对应

    14.启动filebeat并查看
systemctl start filebeat
netstat -altp|grep filebeat(与logstash建立了连接)

                  


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-404476-1-1.html 上篇帖子: ELK自动安装脚本 下篇帖子: ELK 之 LogStash
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表