Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sqlite/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux日志管理和压缩_Linux_Bash_Shell_Logging_Sed - Fatal编程技术网

Linux日志管理和压缩

Linux日志管理和压缩,linux,bash,shell,logging,sed,Linux,Bash,Shell,Logging,Sed,为了测试稳定性,我们在一夜之间运行了整个系统——因为我们需要所有我们需要的线索,所以日志也在一夜之间运行。问题是日志在夜间累积到几GB 当前捕获的日志如下所示: myProg>log.txt 我想做以下工作: 一旦log.txt的大小超过配置的大小,就会将其压缩为单独的压缩文件 我想在zip文件的名称上加一个时间戳(创建文件的日期和时间) e、 g.如果我的日志大小为1GB,配置的大小限制为100MB,那么在测试结束时,我将有以下文件 file1_timestamp.gz,file2_times

为了测试稳定性,我们在一夜之间运行了整个系统——因为我们需要所有我们需要的线索,所以日志也在一夜之间运行。问题是日志在夜间累积到几GB

当前捕获的日志如下所示: myProg>log.txt

我想做以下工作:

  • 一旦log.txt的大小超过配置的大小,就会将其压缩为单独的压缩文件
  • 我想在zip文件的名称上加一个时间戳(创建文件的日期和时间)
  • e、 g.如果我的日志大小为1GB,配置的大小限制为100MB,那么在测试结束时,我将有以下文件 file1_timestamp.gz,file2_timestamp.gz。。。file10_timestamp.gz,其中每个.gz文件的大小为100 MB

  • 日志应继续显示在标准输出上
  • 请提供您的意见


    谢谢

    logrotate
    是作业的工具。查看可用的选项(修改脚本、计划的额外批处理、其他应用程序等)?非常感谢!洛格是个美人:)