chunjihong 发表于 2019-1-28 12:21:55

ELK采集之nginx 日志高德地图出城市IP分布图

  最近确实忙得像狗一样,很久没有更新博客了。今天有点空闲时间写一些相关的ELK stack的博客;本来想做成一些列,后面有时间的话再更新吧
  

  1、采用拓扑:
  https://s2.运维网.com/wyfs02/M01/8C/BF/wKioL1h3EzSSua9CAAArIrLMEjE551.png
  

  角色扮演:
  Agent:采用logstash,IP:192.168.10.7
  Redis队列: IP:192.168.10.100
  Indexer:logstash,IP:192.168.10.205
  Es+kibana:放在192.168.10.100(大的日志环境可以单独存放)
  
  说明:下面是一台日志服务器下面nginx的日志格式
  
log_format backend '$http_x_forwarded_for [$time_local] '
                   '"$host" "$request" $status $body_bytes_sent '
                   '"$http_referer" "$http_user_agent"'  

  

  1、192.168.10.7上面agnet的配置:
  
$ cat /etc/logstash-nginx.conf
input {
    file {
      path =>["/home/data/logs/access.log"]
      type =>"nginx_access"
    }
}
output {
if == "nginx_access"{
   redis {
    host =>["192.168.10.100:6379"]
    data_type=>"list"
    key =>"nginx"
    }
}
}  
  ##说明:这里的agent只是做日志发送,对性能影响不大,读取access.log日志文件,并且发送到远端redis。
  

  2、192.168.10.205:indexer的配置:
# cat logstash_nginx.conf
input {
redis {
    host =>"192.168.10.100"
    port => 6379
    data_type =>"list"
    key =>"nginx"
}
}
filter {
      grok {
            match=>
                {"message" =>"%{IPORHOST:clientip} \[%{HTTPDATE:timestamp}\] %                           {NOTSPACE:http_name}\"(?:%{WORD:verb} %{NOTSPACE:request}(?:HTTP/%                     {NUMBER:httpversion})?|%{DATA:rawrequest})\" %{NUMBER:response}(?:%                      {NUMBER:bytes:float}|-) %{QS:referrer} %{QS:agent}"
            }
      }
    date {
      match => ["timestamp" , "dd/MMM/YYYY:HH:mm:ss Z" ]
    }
    geoip {
      source =>"clientip"
      target =>"geoip"
      database =>"/test/logstash-5.0.0/GeoLite2-City.mmdb"
      add_field => ["", "%{}" ]
      add_field => ["", "%{}"]
      }
    mutate {
            convert => [ "", "float"]
          }
    }
output {
   elasticsearch {
      action =>"index"
      hosts=>"192.168.10.100:9200"
      index =>"logstash-nginx-%{+yyyy.MM.dd}"
      }
}  

  
  ##说明:这里接收来自:redis的数据key为nginx的。然后进行正则匹配筛选数据。
  Geoip调用我们本地下载的库,在linux版本下现在用:GeoLite2-City.mmdb,可以去网上下载。
  

  备注:基本上操作的也就是logstash的相关操作,其他都是傻瓜安装。但是记得要启动elastic监听端口,启动redis监听端口。最后面启动logstash倒入数据。
  

  这个比较简单,调用city库之后,选择Tile map即可:
  https://s5.运维网.com/wyfs02/M01/8C/BF/wKioL1h3FIyC1YLzAAFzrFYMC_A169.png-wh_500x0-wm_3-wmp_4-s_70751617.png

  

  这里是kibana带的地图,可以看到是英文的城市名之类的,我们改成高德地图,显示中文城市名。
  

  3、修改kibana.yml添加如下URL:
  tilemap.url: "http://webrd02.is.autonavi.com/appmaptilelang=zh_cn&size=1&scale=1&style=8&x={x}&y={y}&z={z}"
  

  4、重启kibana即可得到如下图形:
https://s2.运维网.com/wyfs02/M02/8C/C3/wKiom1h3FUjD0xbXAAKugZ2W72o406.png-wh_500x0-wm_3-wmp_4-s_21037263.png
  

  5、到这里已经差不多完成了。然后还有剩下的相关图表。大家熟悉kibana自己做聚合运算即可。
  

  6、有一些nginx喜欢用如下的默认格式:
log_format main'$remote_addr - $remote_user[$time_local] "$request" '
                      '$status $body_bytes_sent"$http_referer" '
                      '"$http_user_agent""$http_x_forwarded_for" $request_time ';  

  

  7、可以用如下的grok,默认一些正则表达式logstash已经提供,我们可以如下地址去查看:
vendor/bundle/jruby/1.9/gems/logstash-patterns-core-4.0.2/patterns
  

  8、我们切换到这个目录下,创建相关的正则:
#cd vendor/bundle/jruby/1.9/gems/logstash-patterns-core-4.0.2/patterns
#cat nginx
NGUSERNAME +
NGUSER %{NGUSERNAME}
NGINXACCESS%{IPORHOST:clientip} - %{NGUSER:remote_user} \[%{HTTPDATE:timestamp}\]\"(?:%{WORD:verb} %{NOTSPACE:request}(?:HTTP/%{NUMBER:httpversion})?|%{DATA:rawrequest})\" %{NUMBER:response}(?:%{NUMBER:bytes:float}|-) %{QS:referrer} %{QS:agent}%{NOTSPACE:http_x_forwarded_for} %{NUMBER:request_time:float}  

  9、直接调用即可:
  
# catnginx.conf
input {
redis {
    host =>"192.168.10.100"
    port => 6379
    data_type =>"list"
    key =>"nginx"
}
}
filter {
    grok {
      match => { "message" =>"%{NGINXACCESS}" }
    }
    date {
      match => [ "timestamp" ,"dd/MMM/YYYY:HH:mm:ss Z" ]
    }
    geoip {
      source => "clientip"
      target => "geoip"
      database =>"/test/logstash-5.0.0/GeoLite2-City.mmdb"
      add_field => ["", "%{}" ]
      add_field => ["", "%{}"]
    }
    mutate {
      convert => ["", "float"]
    }   
}
output {
       stdout{codec=>rubydebug}
       elasticsearch {
       action => "index"
       hosts => "192.168.63.235:9200"
       index => "logstash-nginx-%{+yyyy.MM.dd}"
   }
}  ###到处已经可以手工了,剩下就是采集数据kibana聚合出图的事情。
  

  10、可以完善的,就是nginx我们可以再生成数据的时候以json的格式生成,这样就不用grok去解析这么消耗CPU了:
  

log_format json'{"@timestamp":"$time_iso8601",'
                '"host":"$server_addr",'
                '"clientip":"$remote_addr",'
                '"size":$body_bytes_sent,'
                '"responsetime":$request_time,'
                '"upstreamtime":"$upstream_response_time",'
                '"upstreamhost":"$upstream_addr",'
                '"http_host":"$host",'
               '"url":"$uri",'
                '"xff":"$http_x_forwarded_for",'
                '"referer":"$http_referer",'
                '"agent":"$http_user_agent",'
                '"status":"$status"}';
access_log/etc/nginx/logs/access.jsonjson;  

  11、然后我们生成的就是json格式的日志了,还有一些需求的变量可以自己添加,logstask可以修改为:
  
#cat etc/nginx_json.conf
input {
file {             #从nginx日志读入
    type => "nginx-access"
    path =>"/etc/nginx/logs/access.json"
    start_position => "beginning"
    codec => "json"#这里指定codec格式为json
}
}
filter {
   if == "nginx-access"{
       geoip {
      source => "clientip"
      target => "geoip"
      database =>"/test/logstash-5.0.0/GeoLite2-City.mmdb"
      add_field => ["", "%{}" ]
      add_field => [ "","%{}"]
    }
   }
}
output {
    if == "nginx-access" {
    stdout{codec=>rubydebug}
    elasticsearch {
      action => "index"
      hosts => "192.168.63.235:9200"
      index => "mysql-slow-%{+yyyy.MM.dd}"
   }
}
}  


  清爽好多,手工。注意GeoLite2-City.mmdb用这个库,我之前用bat这个。是出不来图的

  

  





页: [1]
查看完整版本: ELK采集之nginx 日志高德地图出城市IP分布图