设为首页 收藏本站
查看: 1325|回复: 0

[经验分享] Flume+Kafka+Zookeeper搭建大数据日志采集框架

[复制链接]

尚未签到

发表于 2017-10-31 15:57:05 | 显示全部楼层 |阅读模式
1.  JDK的安装    参考jdk的安装,此处略。
2.  安装Zookeeper    参考我的Zookeeper安装教程中的“完全分布式”部分。
3.  安装Kafka    参考我的Kafka安装教程中的“完全分布式搭建”部分。
4.  安装Flume    参考我的Flume安装教程。
5.  配置Flume5.1.  配置kafka-s.cfg    $ cd /software/flume/conf/                   #切换到kafka的配置文件目录
    $ cp flume-conf.properties.template kafka-s.cfg   #将flume的配置文件模板复制为kafka-s.cfg

    kafka-s.cfg的详细内容如下:
    #配置flume agentsourcechannelsink
    a1.sources = r1
    a1.channels = c1
    a1.sinks=k1
    #配置source
    a1.sources.r1.type = exec
    a1.sources.r1.command=tail -F/tmp/logs/kafka.log

    # 配置channel
    a1.channels.c1.type = memory
    a1.channels.c1.capacity = 1000
    a1.channels.c1.transactionCapacity = 100
    #配置sink
    a1.sinks.k1.channel = c1
    a1.sinks.k1.type =org.apache.flume.sink.kafka.KafkaSink
    #设置KafkaTopic
    a1.sinks.k1.kafka.topic = mytest
    #设置Kafkabroker地址和端口号
    a1.sinks.k1.kafka.bootstrap.servers = s201:9092,s202:9092,s203:9092
    #配置批量提交的数量
    a1.sinks.k1.kafka.flumeBatchSize = 20
    a1.sinks.k1.kafka.producer.acks = 1
    a1.sinks.k1.kafka.producer.linger.ms = 1
    a1.sinks.ki.kafka.producer.compression.type= snappy

    # 绑定sourcesink channel
    a1.sources.r1.channels = c1
    a1.sinks.k1.channel=c1

    关于上面配置文件中需要注意的3点:
    a、a1.sources.r1.command=tail-F /tmp/logs/kafka.log  
    b、a1.sinks.k1.kafka.bootstrap.servers= s201:9092,s202:9092,s203:9092
    c、a1.sinks.k1.topic= mytest

    由配置文件我们可以了解到:
    1)、我们需要在/tmp/logs下建一个kafka.log的文件,且向文件中输出内容(下面会说到);
    2)、flume连接到kafka的地址是 s201:9092,s202:9092,s203:9092,注意不要配置错误了;
    3)、flume会将采集后的内容输出到Kafkatopic 为mytest上,所以我们启动zk,kafka后需要打开一个终端消费topic mytest的内容,这样就可以看到flume与kafka之间玩起来了。

5.2.  创建/tmp/logs/kafka.log文件目录及文件
在/tmp/logs下建立空文件kafka.log;如果/tmp目录下没有logs目录,则需要先创建logs目录。
5.3.  创建生成日志数据shell脚本
在hadoop用户目录下创建kafkaoutput.sh脚本,并赋予执行权限,用来向/tmp/logs/kafka.log输出内容。
kafkaoutput.sh脚本的具体内容如下:
for((i=0;i<=1000;i++));
do echo"kafka_test-"+$i>>/tmp/logs/kafka.log;
done
5.4.  启动Zookeeper    到zk安装的服务器上启动zk服务,命令如下:
    $ zkServer.sh start
5.5.  启动Kafka    到部署kafka每台服务器上面启动kafka集群
    $ kafka-server-start.sh/software/kafka/config/server.properties &
5.6.  创建Kafka Topic    $ kafka-topics.sh --create --zookeeper s201:2181--replication-factor 3 --partitions 3 --topic mytest
5.7.  启动消费Topic    $ kafka-console-consumer.sh--bootstrap-server s201:9092,s202:9092,s203:9092 --zookeepers201:2181,s202:2181,s203:2181 --topic mytest --from-beginning
5.8.  启动Flume    $ flume-ng agent --conf/software/flume/conf/ --conf-file kafka-s.cfg --name a1-Dflume.root.logger=INFO,console
5.9.  执行kafkaoutput.sh脚本生成日志数据    $ ./kafkaoutput.sh
    查看日志文件内容如下:
76a970664489a515905967dcd26a13a7.png-wh_500x0-wm_3-wmp_4-s_2740149386.png
在kafka中查看的消费信息:
073ad41aafb576a009fb01b6e198bd07.png-wh_500x0-wm_3-wmp_4-s_3964389749.png


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-406318-1-1.html 上篇帖子: Kafka安装部署 下篇帖子: windows下kafka源码阅读环境搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表