设为首页 收藏本站
查看: 1380|回复: 0

[经验分享] centos6.5下的elk部署

[复制链接]

尚未签到

发表于 2019-1-29 14:25:51 | 显示全部楼层 |阅读模式
  1、介绍
   elk是实时日志分析平台,主要是为开发和运维人员提供实时的日志分析,方便人员更好的了解系统状态和代码问题。
2、elk中的e(elasticsearch):
(2.1)先安装依赖包,官方文档说明使用java1.8

yum -y install java-1.8.0-openjdk
安装elasticsearch:
tar zvxf elasticsearch-1.7.0.tar.gz
mv elasticsearch-1.7.0 /usr/local/elasticsearch
vim /usr/local/elasticsearch/config
cp elasticsearch.yml elasticsearch.yml.bak
vim elasticsearch.yml(修改)
cluster.name: elasticsearch
node.name: syk
node.master: true
node.data: true
index.number_of_shards: 5
index.number_of_replicas: 1(分片副本)
path.data: /usr/local/elasticsearch/data
path.conf: /usr/local/elasticsearch/conf
path.work: /usr/local/elasticsearch/work
path.plugins: /usr/local/elasticsearch/plugins
path.logs: /usr/local/elasticsearch/logs
bootstrap.mlockall: true (内存)启动:/usr/local/elasticsearch/bin/elasticsearch -d
netstat -tlnp查看
会有9200与9300的java进程
  curl http://192.168.137.50:9200
  显示:  
{
  "status" : 200,
  "name" : "syk",
  "cluster_name" : "elasticsearch",
  "version" : {
    "number" : "1.7.0",
    "build_hash" : "929b9739cae115e73c346cb5f9a6f24ba735a743",
    "build_timestamp" : "2015-07-16T14:31:07Z",
    "build_snapshot" : false,
    "lucene_version" : "4.10.4"
  },
  "tagline" : "You Know, for Search"
}  (2.2)使用官方给的启动脚本:
  https://codeload.github.com/elastic/elasticsearch-servicewrapper/zip/master
  用rz命令传到服务器上
  unzip elasticsearch-servicewrapper-master.zip
  mv elasticsearch-servicewrapper-master/service/ /usr/local/elasticsearch/bin/
  cd /usr/local/elasticsearch/bin/service
  ./elasticsearch install(在init.d下自动创建服务脚本)
  /etc/init.d/elasticsearch restart
curl -XGET 'http://192.168.137.50:9200/_count?pretty' -d '
> {
>      "query":{
>         "match_all":{}
>     }
>  }
> '  会返回:
{
  "count" : 0,
  "_shards" : {
    "total" : 0,
    "successful" : 0,
    "failed" : 0
  }
}  (2.3)基于rest api的界面(可以增删改差)
  安装插件:/usr/local/elasticsearch/bin/plugin -i elasticsearch/marvel/latest (自动安装)
  网页访问:http://192.168.137.50:9200/_plugin/marvel
  安装集群管理插件
  /usr/local/elasticsearch/bin/plugin -i mobz/elasticsearch-head
  或者:https://github.com/mobz/elasticsearch-head/archive/master.zip下载下来,rz传到服务器
  unzip elasticsearch-head-master.zip
  mv elasticsearch-head-master plugins/head
  网页访问:http://192.168.137.50:9200/_plugin/head
  可以以网页的方式显示你的分片已分片副本。
  

  3、elk中的l(logstash):
  (3.1)安装logstash:
   i)、官方提供了yum安装的安装方式:
     1、rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch
     2、vim /etc/yum.repos.d/logstash.repo
      添加:
    [logstash-2.3]
    name=Logstash repository for 2.3.x packages
    baseurl=https://packages.elastic.co/logstash/2.3/centos
    gpgcheck=1
    gpgkey=https://packages.elastic.co/GPG-KEY-elasticsearch
    enabled=1     3、yum --enablerepo=logstash-2.3 -y install logstash
   ii)、下载tar包安装:
     tar zvxf logstash-1.5.3.tar.gz
     mv logstash-1.5.3 /usr/local/logstash
  (3.2)测试
  /usr/local/logstash/bin/logstash -e 'input { stdin{} } output { stdout{codec => rubydebug} }'    输入hehe
    显示:  
  Logstash startup completed
  hehe
  {
       "message" => "hehe",
      "@version" => "1",
    "@timestamp" => "2016-08-07T17:46:10.836Z",
          "host" => "web10.syk.com"
   }  这表示正常。
  (3.3)写logstash配置文件
    注意:
     必须input{}与output{}
     写法:符号使用=>
   vim /etc/logstash.conf
   input{
     file {
       path => "/var/log/syk.log"
    }
   }
   output{
     file {
       path => "/tmp/%{+YYYY-MM-dd}.syk.gz"
       gzip => true
     }
   }  启动logstash:/usr/local/logstash/bin/logstash -f /etc/logstash.conf
  cd /var/log
  cat maillog >> syk.log(追加到syk.log里)
  在/tmp下可以看到以日期命名的syk.gz压缩文件
  (3.4)使用redis存储logstash:

   yum -y install redis(redis放在另外一台服务器上)
   vim /etc/redis.conf(修改)
    bind 192.168.137.52
   在192.168.137.52服务器上也安装logstash
   编写配置文件:
   vim /etc/logstash.conf  
   input{
     file {
       path => "/var/log/syk.log"
     }
   }
   output{
     redis {
     data_type => "list"
     key => "system-messages"
     host => "192.168.137.52"
     port => "6379"
     db => "1"
     }
   }  启动52服务器的logstash:
   /usr/local/logstash/bin/logstash -f /etc/logstash.conf
   cd /var/log
cat maillog >> syk.log(追加到syk.log里)
进去redis里查看:
redis-cli -h 192.168.137.52 -p 6379
select 1
keys *(可以看到system-messages这个key)
llen system-messages(可以看大system-messages这个key的长度)(3.4)将logstash收集的日志信息传到es上
在192.168.137.50的服务器上写logstash配置文件:
vim /etc/logstash.conf   
   input {
      redis {
      data_type => "list"
      key => "system-messages"
      host => "192.168.137.52"
      port => "6379"
      db => "1"
     }
   }
   output {
     elasticsearch {
     host => "192.168.137.50"
     protocol => "http"
     index => "system-messages-%{+YYYY.MM.dd}"
      }
   }启动logstash:
/usr/local/logstash/bin/logstash -f /etc/logstash.conf这时我们去看redis的LLEN system-messages,会发现已经变成了0,这说明数据已经传输到es上了。
网页访问:http://192.168.137.50:9200/_plugin/head/
会多出来一个system-messages-2016.08.07的分片副本


4、elk中的k(kibana):
(4.1)安装:
  解压 mv就行
     cd /usr/local/kiabna/config/
     vim kibana.yml修改:
   elastcsearch: "http://192.168.137.50:9200"  启动:
    nohup ./bin/kiban &(默认端口5601)  网页访问:
   http://192.168.137.50:5601
   相关操作需要配合图片说明,这里暂时不说了。
  

     
  

  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-669274-1-1.html 上篇帖子: Netty学习笔记(一) 下篇帖子: 如何修复无法启动的docker容器
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表