设为首页 收藏本站
查看: 642|回复: 0

[经验分享] Flume+Kafka+Zookeeper搭建大数据日志采集框架

[复制链接]

尚未签到

发表于 2019-1-8 10:05:43 | 显示全部楼层 |阅读模式
1.  JDK的安装
      参考jdk的安装,此处略。
2.  安装Zookeeper
      参考我的Zookeeper安装教程中的“完全分布式”部分。
3.  安装Kafka
      参考我的Kafka安装教程中的“完全分布式搭建”部分。
4.  安装Flume
      参考我的Flume安装教程。
5.  配置Flume
5.1.  配置kafka-s.cfg
  $ cd /software/flume/conf/                   #切换到kafka的配置文件目录
  $ cp flume-conf.properties.template kafka-s.cfg   #将flume的配置文件模板复制为kafka-s.cfg
  kafka-s.cfg的详细内容如下:
      #配置flume agentsourcechannelsink
  a1.sources = r1
  a1.channels = c1
  a1.sinks=k1
      #配置source
  a1.sources.r1.type = exec
  a1.sources.r1.command=tail -F/tmp/logs/kafka.log
      # 配置channel
  a1.channels.c1.type = memory
  a1.channels.c1.capacity = 1000
  a1.channels.c1.transactionCapacity = 100
      #配置sink
  a1.sinks.k1.channel = c1
  a1.sinks.k1.type =org.apache.flume.sink.kafka.KafkaSink
      #设置KafkaTopic
  a1.sinks.k1.kafka.topic = mytest
      #设置Kafkabroker地址和端口号
  a1.sinks.k1.kafka.bootstrap.servers = s201:9092,s202:9092,s203:9092
      #配置批量提交的数量
  a1.sinks.k1.kafka.flumeBatchSize = 20
  a1.sinks.k1.kafka.producer.acks = 1
  a1.sinks.k1.kafka.producer.linger.ms = 1
  a1.sinks.ki.kafka.producer.compression.type= snappy
      # 绑定sourcesink channel
  a1.sources.r1.channels = c1
  a1.sinks.k1.channel=c1
      关于上面配置文件中需要注意的3点:
  a、a1.sources.r1.command=tail-F /tmp/logs/kafka.log
  b、a1.sinks.k1.kafka.bootstrap.servers= s201:9092,s202:9092,s203:9092
  c、a1.sinks.k1.topic= mytest
      由配置文件我们可以了解到:
  1)、我们需要在/tmp/logs下建一个kafka.log的文件,且向文件中输出内容(下面会说到);
  2)、flume连接到kafka的地址是 s201:9092,s202:9092,s203:9092,注意不要配置错误了;
  3)、flume会将采集后的内容输出到Kafkatopic 为mytest上,所以我们启动zk,kafka后需要打开一个终端消费topic mytest的内容,这样就可以看到flume与kafka之间玩起来了。
5.2.  创建/tmp/logs/kafka.log文件目录及文件
在/tmp/logs下建立空文件kafka.log;如果/tmp目录下没有logs目录,则需要先创建logs目录。
5.3.  创建生成日志数据shell脚本
在hadoop用户目录下创建kafkaoutput.sh脚本,并赋予执行权限,用来向/tmp/logs/kafka.log输出内容。
kafkaoutput.sh脚本的具体内容如下:
for((i=0;i>/tmp/logs/kafka.log;
done
5.4.  启动Zookeeper
      到zk安装的服务器上启动zk服务,命令如下:
  $ zkServer.sh start
5.5.  启动Kafka
      到部署kafka每台服务器上面启动kafka集群
  $ kafka-server-start.sh/software/kafka/config/server.properties &
5.6.  创建Kafka Topic
  $ kafka-topics.sh --create --zookeeper s201:2181--replication-factor 3 --partitions 3 --topic mytest
5.7.  启动消费Topic
  $ kafka-console-consumer.sh--bootstrap-server s201:9092,s202:9092,s203:9092 --zookeepers201:2181,s202:2181,s203:2181 --topic mytest --from-beginning
5.8.  启动Flume
  $ flume-ng agent --conf/software/flume/conf/ --conf-file kafka-s.cfg --name a1-Dflume.root.logger=INFO,console
5.9.  执行kafkaoutput.sh脚本生成日志数据
  $ ./kafkaoutput.sh
      查看日志文件内容如下:

  在kafka中查看的消费信息:

  





运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-660641-1-1.html 上篇帖子: 一步一步搭建ZooKeeper + Mesos + Marathon平台管理Docker集群 下篇帖子: Mycat学习实战
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表