为了让apache每天都创建一个新的日志文件,按日来滚动日志,于是把Apache服务器的日志记录方式配置修改了一下:
CustomLog "|bin/rotatelogs /var/logs/%Y%m%d.log 86400" common
其中86400=60*60*24 是一天的秒数,表示每过1天就rotate一次日志。日志存放在/var/logs/目录,文件名格式是20100928.log的格式。
经过几天的观察,发现没啥问题。
不过,后来尝试把滚动频率设定为每小时rotate一次,就发现会与服务器时间相差8小时。研究后发现原来滚动频率(秒)后面还有一个offset(分)参数设置 (此以分钟为单位,与前面个参数不一样喔,前面个参数是与秒为单位)
CustomLog "|bin/rotatelogs /var/logs/%Y%m%d%H.log 3600 480" common
这句的意思是每小时(3600秒)rotate一次,日志文件名格式是2010092806.log的格式。
Windows系统下配置方法:
在apache的配置文件httpd.conf中找到
ErrorLog logs/error_log
CustomLog logs/access_log common
将其改为
ErrorLog "|c:/apache/bin/rotatelogs.exe c:/apache/logs/error_%Y_%m_%d.log 86400 480"
CustomLog "|c:/apache/bin/rotatelogs.exe c:/apache/logs/access_%Y_%m_%d.log 86400 480" common
其中c:/apache/是你安装apache的路径
今天在windows下也想切分日志,正确的写法是:
CustomLog "|bin/rotatelogs.exe logs/hx.com_%Y%m%d.txt 86400 480" combined
分享到:
相关推荐
简单明了的Apache 集群性能优化 日志切分
工作过程中需要统计ftp情况,但是系统自己切分的日志不满足要求。所以自己写切分脚本,主要原理,从源文件切分出前一天日期的数据到备份文件,然后抹除源日志文件前一天数据。使用方法 一般的都是结合crond 使用,...
由公司的项目需要根据日期和文件大小切分log4j日志,所以实现来该appender。本人测试通过,并且在公司的其它项目中已有线上使用,暂时还没发现问题。本人代码有写得不好或者错误的地方,欢迎大家指正,谢谢!!!
由公司的项目需要根据日期和文件大小切分log4j日志,所以实现来该appender。本人测试通过,并且在公司的其它项目中已有线上使用,暂时还没发现问题。本人代码有写得不好或者错误的地方,欢迎大家指正,谢谢!!!
linux下切分tomcat的Catalina.out日志,文档包含相关安装工具
tomcat使用log4j作为日志切分,主要解决tomcat的catalina.log日志过大的问题。使用log4j按天切分日志
tomcat 外网部署按天切分保存日志配置文件 包含模板,按照readme.txt可以直接替换操作
tomcat日志切分方案,离线包
Linux下,Tomcat日志文件catalina.out过大,可使用cronolog工具对日志拆分
java开发的文件,里面有源码,用于切分大数据文件,并且支持合并切分后的文件,主要用于文件的转移
切分代码
用vc6.0编写的,通过一个切分类实现对对话框资源的切分。可横行、纵向。
对窗口进行切分,固定切分大小,不能随意拖动。 开发者:王汝夯, 联系方式: QQ:21712539 Email:wangruhang@mail.nwpu.edu.cn
本解本实现了使用shell脚本实现nginx日志分割,大家如果没资源分下载,可以转至:https://mp.csdn.net/mdeditor/85233117# 去查看源代码。谢谢大家
NULL 博文链接:https://shamu.iteye.com/blog/2089852
tomcat日志切分方案,老系统一直使用tomcat,导致不主动清理,日志膨胀厉害,这里是每日可清理日志
MapReduce是一个编程模型,和处理,产生大数据集的相关实现.用户指定一个 map函数处理一个key/value对,从而产生中间的key/value对集.然后再指定一个reduce函数合并所有的具有相同中间key的中间 value....
一个可以切分窗口的源代码,MFC下调试通过。
主要介绍了python按比例随机切分数据的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧