设为首页 收藏本站
查看: 1272|回复: 0

[经验分享] 使用flume1.6.0直接向hadoop2.5收集数据

[复制链接]

尚未签到

发表于 2015-11-27 20:06:07 | 显示全部楼层 |阅读模式
  1、搭建环境
  要安装jdk,hadoop2.5客户端,剩下的就直接是配置了,配置下就能搞定。
  2、配置
  

a1.sources = r1
a1.channels = c2
a1.sinks = k2
a1.sources.r1.type = exec
a1.sources.r1.command = tail -n +0 -F /opt/nginx/logs/link.log
a1.sources.r1.channels = c2
a1.sources.r1.batchSize = 200
#a1.sources.r1.useHost = true
#使用memory
a1.channels.c2.type = memory
a1.channels.c2.capacity = 2000000
a1.channels.c2.keep-alive = 6
a1.channels.c2.transactionCapacity = 20000
#使用kafka channel,与memory二者只能选其一
a1.channels.c2.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c2.capacity = 10000
a1.channels.c2.brokerList = broker1:9092,broker2ip:9092,broker3ip:9092
a1.channels.c2.topic = ifoxchannel
a1.channels.c2.groupId = ifox
a1.channels.c2.zookeeperConnect = z1:2181,z2:2181,z3:2181
a1.channels.c2.transactionCapacity = 1000
a1.sinks.k2.type = hdfs
a1.sinks.k2.channel = c2
a1.sinks.k2.hdfs.path = hdfs://buffercluster1/user/hive/warehouse/log_text/%Y%m%d/%Y%m%d%H
a1.sinks.k2.hdfs.useLocalTimeStamp = true
a1.sinks.k2.hdfs.filePrefix = logs_bx_14_244-%Y%m%d%H
#默认是sequencefile格式
a1.sinks.k2.hdfs.fileType = DataStream
a1.sinks.k2.hdfs.writeFormat = Text
a1.sinks.k2.hdfs.round = true
a1.sinks.k2.hdfs.roundValue = 1
a1.sinks.k2.hdfs.roundUnit = hour
#timeout默认10秒,如果出现这个错误,可以调大点
a1.sinks.k2.hdfs.callTimeout = 30000
#rollInterval不能设置太小,否则会产生小文件
a1.sinks.k2.hdfs.rollInterval  = 3600
a1.sinks.k2.hdfs.rollSize = 0
a1.sinks.k2.hdfs.rollCount  = 0
  


  3、启动
  

SCRIPT_NAME=$(readlink -f "$0")
dir=`dirname ${SCRIPT_NAME}`
cd $dir
if [[ -z $1 ]]
then
echo "error! must give the name of the configure file!"
exit -1
else
#not no postfix, such as conf
con_file=$1
fi
log_dir=/opt/hadoop/flume/user_logs/
mkdir -p ${log_dir}
nohup /opt/hadoop/flume/bin/flume-ng agent --conf /opt/hadoop/flume/conf -f /opt/hadoop/flume/conf/${con_file}.conf -Dflume.root.logger=INFO,console -n a1 > ${log_dir}/${con_file}.log 2>&1 &
echo $! > ${log_dir}/${con_file}.pid  #保留pid




  4、1.6.0新功能
  支持kafka channel,这样flume、kafka、hdfs可以很容易的整合在一起了,有时间研究下。
  5、kafka启动
  

bin/kafka-server-start.sh -daemon config/server.properties 6、kafka停止  
  

bin/kafka-server-stop.sh




  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-144360-1-1.html 上篇帖子: flume source、sink、Channels测试 下篇帖子: flume+es+kibana日志系统
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表