设为首页 收藏本站
查看: 1962|回复: 0

[经验分享] hadoop +hive 结构化分析advanceiislog日志

[复制链接]

尚未签到

发表于 2018-10-31 12:51:44 | 显示全部楼层 |阅读模式
  流程如下:
  1  把个website服务器日志目录mount到namenode 服务器相应的目录下:如:
  sudo mount -t cifs //10.22.1.81/AdvancedLogging /home/hadoop/advancedlogging/81 -o username="prod\pro",password='it@lent_8*H\'
  2  通过python 脚本putiislog.py  把要分析天数的日志put到hdfs上,此例分析昨天的,因为日志不是按天切换的,所以每次put 当天和昨天的日志,实际上我就分析昨天的,不过当天日志里会有昨天的日志
  3  put 完以后,通过编写map 和 reduce python脚本,结构化日志
  4  进入hive 创建相应的分区,(前提是要先创建好表,一般一个表就够) 此例 创建两个分区,website 和 time   如: "alter table structuredlog add partition(website='www.aa.com',time='2013-07-11')"
  5 把结构化出来的数据cp 到hive 中,
  6 进入hive 就可以通过hql语句进行日志分析了
  涉及到几个脚本
  1  putiislog.py  (总执行文件,里面含有所有过程)
  2  advanceiislogparser.py  (结构化advancelog日志,每列用 * 分割)
  3  mapiislog.py     (hdfs map过程)
  #!/usr/bin/python2.4
  #coding=utf8
  import fileinput
  import glob
  import string
  import sys
  for line in sys.stdin:
  line = line.strip()
  print line
  4  mapandreduce.sh  (map/reduce 过程,创建分区,数据导入到hive)
  1 2 4 脚本见附件    用linux 下的vim 打开


运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-628993-1-1.html 上篇帖子: Hadoop+hive 集群安装部署 (三) 下篇帖子: Hadoop周边生态软件和简要工作原理(二)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表