设为首页 收藏本站
查看: 1392|回复: 0

[经验分享] windows下kafka+ELK的日志系统

[复制链接]

尚未签到

发表于 2019-1-28 08:32:04 | 显示全部楼层 |阅读模式
  用到的软件:zookeeper、kafka、logstash(6.3.2版本)、ES(6.3.2版本)、Kibana(6.3.2版本)。具体安装步骤不在此说明,基本都是下载解压,改一下配置文件,即可使用。(以下所述均在Windows下)
1、zookeeper:
kafka中自带zookeeper,可以不用装zookeeper,如果想自己另装,需配置环境变量,如下:
ZOOKEEPER_HOME  =>  D:\nomalAPP\zookeeper-3.4.13
path 里面加入   %ZOOKEEPER_HOME%\bin
如果配置好以后,在cmd里运行zkserver报找不到java错误的话,可能是java环境变量的位置放置有问题,可以将path里面配置的java环境位置移到最前面。
  2、kafka:
kafka如果启动报找不到java的错误,原因在于kafka-run-class.bat的179行,找到里面的  %CLASSPATH% ,将其用双引号括起来。即改为:set COMMAND=%JAVA% %KAFKA_HEAP_OPTS% %KAFKA_JVM_PERFORMANCE_OPTS% %KAFKA_JMX_OPTS% %KAFKA_LOG4J_OPTS% -cp "%CLASSPATH%" %KAFKA_OPTS% %*
kafka的配置文件server.properties里面要修改的:
日志所放置的目录(可以选择用默认的):log.dirs=D:/nomalAPP/kafka_2.12-2.0.0/kafka-logs,
连接zookeeper的ip和端口:zookeeper.connect=localhost:2181
其他的均可用默认配置。
启动命令:cmd锁定安装目录,然后  .\bin\windows\kafka-server-start.bat .\config\server.properties

3、logstash:
在config目录下,logstash.yml里面,如果想启动多个,在里面可以配置 http.port=9600-9700,如果没有配置这一项,会使用默认的9600端口。
在config目录下,增加一个logstash.conf的配置文件,用来配置数据源,和数据过滤,数据输出的位置,如下:

input {
#   ==>    用kafka的日志作为数据源
kafka{  
····#(kafka的IP和端口)
bootstrap_servers => "10.8.22.15:9092"  
# (在有多个相同类型的数据源时,需要配置)
client_id => "test1"  
# (消费者分组,可以通过组 ID 去指定,不同的组之间消费是相互不受影响的,相互隔离)
group_id => "test1"   
auto_offset_reset => "latest"   
# (消费者线程个数)
consumer_threads => 5   
# (在输出消息的时候会输出自身的信息包括:消费消息的大小, topic 来源以及 consumer 的 group 信息)
decorate_events => true   
# (主题)
topics => ["bas-binding-topic"]   
# (用于ES索引)
type => "bas-binding-topic"  
# (数据格式)
codec => "json"     
tags => ["bas-binding-topic"]
}  
kafka{  
bootstrap_servers => "10.8.22.15:9092"  
client_id => "test2"  
group_id => "test2"  
auto_offset_reset => "latest"  
consumer_threads => 5
#decorate_events => true  
topics => ["bas-cus-request-topic"]  
type => "bas-cus-request-topic"  
codec => "json"
tags => ["bas-cus-request-topic"]
}  
}
filter {
filter插件负责过滤解析input读取的数据,可以用grok插件正则解析数据,
date插件解析日期,json插件解析json等等
}
output {
# 输出到ES
if "bas-binding-topic" in [tags] {
elasticsearch{  
# ES的IP和端口
hosts => ["localhost:9201"]  
# 索引名称:主题+时间
index => "bas-binding-topic-%{+YYYY.MM.dd+HH:mm:ss}"  
timeout => 300
}
stdout {
codec => rubydebug
}
}
if "bas-cus-request-topic" in [tags] {
elasticsearch{  
hosts => ["localhost:9201"]  
index => "bas-cus-request-topic-%{+YYYY.MM.dd+HH:mm:ss}"  
timeout => 300
}
stdout {
codec => rubydebug
}
}
}
  启动logstash的命令:      .\bin\logstash.bat -f .\config\logstash.conf
  4、ES:
在config目录下,elasticsearch.yml配置文件中,ES的默认端口为9200,可以通过http.port=9201来修改
启动命令:   .\bin\elasticsearch.bat
启动后,在浏览器访问:  http://localhost:9201,
如果出现了一些信息,表示启动成功。
  5、Kibana:
在config目录下,kibana.yml配置文件中,通过elasticsearch.url: "http://localhost:9201" 来配置地址
启动命令:    .\bin\kibana.bat
访问  "http://localhost:9201" ,如果出现需要输入用户名密码的界面,表示ES启动失败,如果直接显示Kibana界面,则启动成功。
  logstash数据输出到ES时,会选择ES默认的映射来解析数据。如果觉得默认映射不满足使用条件,可以自定模板:
借助postman工具创建ES模板,如下:

收到此响应表示创建成功。然后可以通过GET请求查询你刚才创建的模板,通过DELETE请求删除刚才创建的模板。
  向kafka主题中发送日志信息,发送的信息会在cmd窗口显示,如下:

同时,在Kibana界面会看到相应的索引,索引名称就是在logstash.conf的输出中配置的,如下:

Visualize:可以选择自己想要的索引去进行图形分析,效果如下:

Dashboard:将做过的图整合到仪表盘,效果如下:

  另外,可以设置自动刷新,即当有新的数据发送到kafka时,所做的图会自动根据主题来进行刷新。
项目中,可以通过logback来讲日志输出到kafka,具体配置如下:



%msg%n


bas-binding-topic



bootstrap.servers=localhost:9092,10.8.22.13:9092





  然后在记日志的时候,记到对应的主题,日志就会写到kafka相应的位置。可以通过消费者来消费主题,查看日志是否成功写入,如下:

@SuppressWarnings("resource")
public static void main(String[] args) {
Properties properties = new Properties();
properties.put("bootstrap.servers", "127.0.0.1:9092");
properties.put("group.id", "group-1");
properties.put("enable.auto.commit", "false");
properties.put("auto.commit.interval.ms", "1000");
properties.put("auto.offset.reset", "earliest");
properties.put("session.timeout.ms", "30000");
properties.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
properties.put("value.deserializer",
"org.apache.kafka.common.serialization.StringDeserializer");
KafkaConsumer kafkaConsumer = new KafkaConsumer(properties);
kafkaConsumer.subscribe(Arrays.asList("bas-cus-request-topic", "bas-binding-topic"));
while (true) {
ConsumerRecords records = kafkaConsumer.poll(Long.MAX_VALUE);
System.err.println("+++++++++++++++++++++++++++++++++++++++++");
for (ConsumerRecord record : records) {
System.err.println(record.offset() + ">>>>>>" + record.value());
}
System.err.println("+++++++++++++++++++++++++++++++++++++++++++++");
break;
}
}
  暂时想到的就这些,有建议的,欢迎评论提醒我进行补充,谢谢!




运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-668481-1-1.html 上篇帖子: Centos 7 部署ELK Stack+beats+kafka 下篇帖子: ELK 实验(三)安装Kibana
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表