设为首页 收藏本站
查看: 840|回复: 0

[经验分享] filebeat+redis+elk日志平台搭建

[复制链接]

尚未签到

发表于 2018-11-2 13:39:38 | 显示全部楼层 |阅读模式
  filebeat+redis+elk
  系统:centos7.1 x86_64
  filebeat: 6.2.3
  logstash: 6.2.3
  elasticsearch: 6.2.3
  kibana: 6.2.3
  架构如下:
DSC0000.jpg

  配置yum源:
  导入验证文件
  rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
  rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch
  创建yum repo文件:
  cat /etc/yum.repos.d/elasticsearch-6x.repo
  [elasticsearch-6.x]
  name=Elasticsearch repository for 6.x packages
  baseurl=https://artifacts.elastic.co/packages/6.x/yum
  gpgcheck=1
  gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
  enabled=1
  autorefresh=1
  type=rpm-md
  安装软件:
  yum install filebeat logstash elasticsearch kibana -y
  系统架构:
  filebeat +redis+ logstash+ elasticsearch + kibana
  使用beat的原因为logstash需要依赖java环境,对cpu和内存消耗都比较大,所以filebeat应运而生,对cpu和内存基本没有消耗。
  使用redis 的原因是当多个clinet同事写入到logstash或者elasticsearch 时候,有io瓶颈,所以选择了redis ,当然可以使用kafka,rabbitmq等消息中间件。
  配置filebeat(注意为yaml语法,什么是yaml自己google):
  filebeat.prospectors:

  • type: log  enabled: true
      paths:

    • /var/log/*.log ###监控的文件

  输出到redis:
  ##-------------------------- redis  output ------------------------------------
  output.redis:
  hosts: ["192.168.147.190"]
  password: "6lapp"
  key: "log_file"
  db: 0
  timeout: 5
  logstash配置,只是写了最简单的input和output,需要filter的可以去github上面找正则去匹配,有点繁琐就没有写:
  cat /etc/logstash/conf.d/redis_logstash.conf
  input {
  redis {
  port => "6379"
  host => "192.168.147.190"
  password => "6lapp"
  data_type => "list"
  type => "log"
  key => "log_file"
  }
  }
  output {
  elasticsearch {
  hosts => "192.168.147.190:9200"
  index => "logstash-%{+YYYY.MM.dd}"
  }
  }
  elasticsearch配置,这里没有建立集群,elaticsearch 有自动发现功能,所以只是需要配置ip和端口即可:
---------------------------------- Network -----------------------------------
  #
Set the bind address to a specific IP (IPv4 or IPv6):
  #
  network.host: 192.168.147.190
  #
Set a custom port for HTTP:
  #
  http.port: 9200
  #
For more information, consult the network module documentation.
  #
  kibana配置需要修改端口ip和 elasticsearch的地址即可:
  server.port: 5601
  server.host: 192.168.147.190
  elasticsearch.url: "http://192.168.147.190:9200"
  启动:
  systemctl start redis
  systemctl start filebeat
  logstash -f /etc/logstash/conf.d/redis_logstash & 或者使用nohup启动 或者使用screen启动
  systemctl start elasticsearch
  systemctl start kibana
  启动之后查看进程和端口:
  访问一下http://192.168.147.190:5601 可以操作kibana了,整个日志系统初步搭建完成,需要使用完善一下logstash的配置文件即可
  创建测试文件:
  touch /var/log/test.log
  for ((i=0 ;i> test.log ;done
  kibana截图:
DSC0001.jpg

  注意:
  kibana的时间和系统的时间是否一致,否则可能导致看不到图像,这个是我猜的一个坑。
  参考文件:
  https://www.elastic.co
  https://blog.csdn.net/Ghost_leader/article/details/79121297


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-629903-1-1.html 上篇帖子: Redis(五)、Redis数据库集群相关 下篇帖子: 实现redis高可用主从之sentinel-Captain
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表