设为首页 收藏本站
查看: 1815|回复: 0

[经验分享] Flume例子:使用netcat和exec作为信源,logger和file作为信宿,并分别为每对信源和信宿实现一个信道

[复制链接]

尚未签到

发表于 2015-11-27 19:58:28 | 显示全部楼层 |阅读模式
  
  一展身手:使用netcatexec作为信源,loggerfile作为信宿,并分别为每对信源和信宿实现一个信道:
  (1)程序如下:保存为agentx.conf文件:
  agentx.sources = netsource execsource
  agentx.sinks = logsink filesink
  agentx.channels = memorychannel1  memorychanne2
  
  agentx.sources.netsource.type = netcat
  agentx.sources.netsource.bind = 172.16.2.17
  agentx.sources.netsource.port = 3000
  
  agentx.sinks.logsink.type = logger
  
  agentx.channels.memorychannel1.type = memory
  agentx.channels.memorychannel1.capacity = 1000
  agentx.channels.memorychannel1.transactionCapacity = 100
  
  agentx.sources.netsource.channels = memorychannel1
  agentx.sinks.logsink.channel = memorychannel1
  
  agentx.sources.execsource.type = exec
  agentx.sources.execsource.command = cat /home/hadoop/message
  
  agentx.sinks.filesink.type = FILE_ROLL
  agentx.sinks.filesink.sink.directory = /home/hadoop/flume/files
  agentx.sinks.filesink.sink.rollInterval = 0
  
  agentx.channels.memorychanne2.type = file
  agentx.channels.memorychanne2.checkpointDir = /home/hadoop/flume/fc/checkpoint
  agentx.channels.memorychanne2.dataDirs = /home/hadoop/flume/fc/data
  
  agentx.sources.execsource.channels = memorychanne2
  agentx.sinks.filesink.channel = memorychanne2
  (2)将agentx.conf放到flume工作的相应位置,我的是 /usr/hadoop/flume目录下,然后执行命令:
  [hadoop@Master flume]$ ls
  agent1.conf  agent2.conf  agent3.conf  agentx.conf  conf  derby.log  logs
  [hadoop@Master flume]$ flume-ng agent --conf conf --conf-file agentx.conf --name agentx
  Info: Sourcing environment configuration script /usr/hadoop/flume/conf/flume-env.sh
  Info: Including Hadoop libraries found via (/usr/hadoop/bin/hadoop) for HDFS access
  Info: Excluding /usr/hadoop/libexec/../lib/slf4j-api-1.4.3.jar from classpath
  Info: Excluding /usr/hadoop/libexec/../lib/slf4j-log4j12-1.4.3.jar from classpath
  中间省略。。。
  
  (3)然后在从机slave1中,通过telnet远程访问主机master,并输入命令(需要先安装telnet: 使用买了yum install -y telnet 进行安装即可)
  [hadoop@Slave1 ~]$ curl telnet://172.16.2.17:3000
  Test from slave1
  OK
  about netcat and
  OK
  exec!
  OK
  ^C
  [hadoop@Slave1 ~]$
  
  (4)查看log的输出:
  05 Jan 2015 10:32:58,302 INFO  [SinkRunner-PollingRunner-DefaultSinkProcessor] (org.apache.flume.sink.LoggerSink.process:70)  - Event: { headers:{} body: 54 65 73 74 20 66 72 6F 6D 20 73 6C 61 76 65 31 Test from slave1 }
  05 Jan 2015 10:33:07,306 INFO  [SinkRunner-PollingRunner-DefaultSinkProcessor] (org.apache.flume.sink.LoggerSink.process:70)  - Event: { headers:{} body: 61 62 6F 75 74 20 6E 65 74 63 61 74 20 61 6E 64 about netcat and }
  05 Jan 2015 10:33:23,936 INFO  [SinkRunner-PollingRunner-DefaultSinkProcessor] (org.apache.flume.sink.LoggerSink.process:70)  - Event: { headers:{} body: 65 78 65 63 21                                  exec! }
  (5)查看files的输出:
  [hadoop@Master flume]$ cd /home/hadoop/flume/files/
  [hadoop@Master files]$ ls
  1420384890083-1  1420386984869-1  1420388077115-1  1420423829240-1
  [hadoop@Master files]$ cat 1420423829240-1
  Hello netcat and exec Flume!

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-144354-1-1.html 上篇帖子: flume-两台机器上agent的串联运行 下篇帖子: flume的几个经典配置案例
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表