设为首页 收藏本站
查看: 1552|回复: 0

[经验分享] nginx日志切割并使用flume-ng收集日志

[复制链接]
累计签到:1 天
连续签到:1 天
发表于 2015-9-17 08:55:28 | 显示全部楼层 |阅读模式
   nginx的日志文件没有rotate功能。如果你不处理,日志文件将变得越来越大,还好我们可以写一个nginx日志切割脚本来自动切割日志文件。
第一步就是重命名日志文件,不用担心重命名后nginx找不到日志文件而丢失日志。在你未重新打开原名字的日志文件前,nginx还是会向你重命名的文件写日志,linux是靠文件描述符而不是文件名定位文件。
第二步向nginx主进程发送USR1信号。
nginx主进程接到信号后会从配置文件中读取日志文件名称,重新打开日志文件(以配置文件中的日志名称命名),并以工作进程的用户作为日志文件的所有者。
重新打开日志文件后,nginx主进程会关闭重名的日志文件并通知工作进程使用新打开的日志文件。
工作进程立刻打开新的日志文件并关闭重名名的日志文件。
然后你就可以处理旧的日志文件了。
nginx日志按日期自动切割脚本如下
#nginx日志切割脚本
#!/bin/bash #设置日志文件存放目录 logs_path="/usr/local/nginx/logs/" #设置pid文件 pid_path="/usr/local/nginx/nginx.pid" #重命名日志文件 mv ${logs_path}access.log ${logs_path}access_$(date-d"yesterday"+"%Y%m%d").log
#向nginx主进程发信号重新打开日志 kill -USR1 `cat ${pid_path}`
#以上是对日志的处理,可是重新命名后原来的那个access.log已经不存在了,使用tail -f 时候flumeng无法再继续收集新产生的日志了,这个时候我们把flume收集日志的命令改为tail -F 收集日志即可。
  
  详细见 http://liyonghui160com.iteye.com/blog/2098777
  
  保存以上脚本nginx_log.sh,设置定时执行。
  
  设置上面的shell脚本文件加入到定时任务中去。crontab是linux下面一个定时任务进程。开机此进程会启动,它每隔一定时间会去自己的列表中看是否有需要执行的任务。
  
  crontab  -e
  
  0 0 * * * /data/wwwlogs/nginx_log_division.sh
  
  会打开一个文件,加入上面的代码
  格式为 "分 时 日 月 星期几  要执行的shell文件路径"。用*可以理解成“每”,每分钟,每个小时,每个月等等。
  我设置是在凌晨0点0分运行nginx_log_division.sh脚本放到flume中bin文件夹下,脚本的内容就是重新生成一个新的日志文件。
  
  nginx_log_division.sh代码:
  



Shell代码 http://liyonghui160com.iteye.com/javascripts/syntaxhighlighter/clipboard_new.swf DSC0000.png

  • #!/bin/bash
  • #设置日志文件存放目录
  • logs_path="/usr/local/nginx/nginxlog/"  
  • #设置pid文件
  • pid_path="/usr/local/nginx/nginx-1.7.3/logs/nginx.pid"  
  • #日志文件
  • filepath=${logs_path}"access.log"  
  • # Source function library.
  • #重命名日志文件
  • mv ${logs_path}access.log ${logs_path}access_$(date -d '-1 day' '+%Y-%m-%d').log  
  • #向nginx主进程发信号重新打开日志
  • kill -USR1 `cat ${pid_path}`
  
  
  
  flumeng配置:
  



Xml代码 http://liyonghui160com.iteye.com/javascripts/syntaxhighlighter/clipboard_new.swf

  • # A single-node Flume configuration

  • # Name the components on this agent

  • agent1.sources = source1  
  • agent1.sinks = sink1  
  • agent1.channels = channel1  



  • # Describe/configure source1

  • agent1.sources.source1.type = exec  
  • agent1.sources.source1.command = tail -n +0 -F /logs/access.log  
  • agent1.sources.source1.channels = channel1  


  • # Describe sink1
  • agent1.sinks.sink1.type = file_roll  
  • agent1.sinks.sink1.sink.directory=/var/log/data  

  • # Use a channel which buffers events in memory
  • agent1.channels.channel1.type = file  
  • agent1.channels.channel1.checkpointDir=/var/checkpoint  
  • agent1.channels.channel1.dataDirs=/var/tmp  
  • agent1.channels.channel1.capacity = 1000  
  • agent1.channels.channel1.transactionCapactiy = 100  


  • # Bind the source and sink to the channel
  • agent1.sources.source1.channels = channel1  
  • agent1.sinks.sink1.channel = channel1  

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-114693-1-1.html 上篇帖子: flume分布式日志收集系统操作 下篇帖子: Flume环境部署和配置详解及案例大全
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表