apache与nginx 日志切割
web的日志是重中之重,可以通过分析日志得到丰富的网站信息;如果对日志没有很好的处理,比如所有的日志都记录在一个文件上,那日积月累后,那么这个文件会很庞大,也会影响到分析日志的效率,最重要的是单个日志过于庞大,会影响web服务往日志文件写入信息的速度,所以合理的处理和分配日志是非常有必要的;下面就记录一些web日志分割的方法;1、apache
让apache的日志按天分割,即每天生成一个新的日志记录当天的日志信息;
以下是对apache-2.4 的虚拟主机生成的日志进行按天切割:
1
2
3
4
5
6
7
8
9
10
11
12
13
<VirtualHost *:80>
DocumentRoot "/www/wwwroot/www.test.com"
ServerName www.test.com
DirectoryIndexindex.html index.php index.htm
ErrorLog "/www/weblogs/nginx_error.log"
# rotatelogs 在安装apache的目录下
CustomLog "|/usr/local/apache2/bin/rotatelogs /www/weblogs/%Y_%m_%d-httpd.access.log 86400" common
<Directory /www/wwwroot/www.test.com>
Options -Indexes
AllowOverride All
Require all granted
</Directory>
</VirtualHost>
2、nginx
nginx的日志切割需要使用的脚本帮助,因为nginx内没有提供这方面的功能;
以下是切割日志的脚本,实际上就是利用脚本把日志换个名字再重新生成一个新的日志:
cat nginx_log.sh
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#! /bin/bash
#date= 2015-07-29 18:00
logs_path="/www/weblogs/"
log_name="nginx_access.log"
pid_path="/var/run/nginx.pid"
#把日志重命名
mv ${logs_path}${log_name} ${logs_path}${log_name}_$(date+"%Y-%m-%d")
#把日志打包
#sleep 5
#tar jcf $(date --date="LAST WEEK" +"%Y-%m-%d").tar.bz2 ${logs_path}${log_name}
#重新生成日志;
kill -USR1 `cat /var/run/nginx.pid`
把上面的脚本再设置到crontab中,每天0点执行一次即可:
1
00 00 * * * /bin/bash /usr/local/bin/nginx_log.sh
页:
[1]