Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/database/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Database 我该怎么处理我的pg_日志?_Database_Postgresql_Postgresql 9.4 - Fatal编程技术网

Database 我该怎么处理我的pg_日志?

Database 我该怎么处理我的pg_日志?,database,postgresql,postgresql-9.4,Database,Postgresql,Postgresql 9.4,我有两个数据库服务器,一个用于主要用途,另一个用于备用。每天都在记录日志文件。大约在上周,我发现我的日志文件越来越大,占用了12GB的磁盘空间。我想知道我是否需要创建一个crontab计划任务,比如每一两个月删除一次旧日志。它会影响我的系统吗?还是我应该为它做备份 另一个问题是,如果我正在进行流式复制,备用服务器中pg_log的日志文件大小将与主服务器相同?您可能想了解一些您可以做什么的想法 就我个人而言,我认为循环地旋转日志是最容易的,就像这个答案中描述的那样:。这种方法还可以帮助您更快地找到

我有两个数据库服务器,一个用于主要用途,另一个用于备用。每天都在记录日志文件。大约在上周,我发现我的日志文件越来越大,占用了12GB的磁盘空间。我想知道我是否需要创建一个crontab计划任务,比如每一两个月删除一次旧日志。它会影响我的系统吗?还是我应该为它做备份

另一个问题是,如果我正在进行流式复制,备用服务器中pg_log的日志文件大小将与主服务器相同?

您可能想了解一些您可以做什么的想法

就我个人而言,我认为循环地旋转日志是最容易的,就像这个答案中描述的那样:。这种方法还可以帮助您更快地找到您要查找的内容,因为您的日志是按天分隔的。当然,如果您根据日期名称轮换日志,并让新日志覆盖旧日志,则会限制您返回日志的时间,这可能是有害的,但如果您始终必须返回一周以上的时间来检查日志,您可能需要建立一个更主动的监控系统,以便在出现问题时向您发出警报

至于你的第二个问题,我没有一个明确的答案,但我希望日志文件的大小会相似,但可能不完全相同。不同的服务器可能会使用不同的日志详细信息进行设置,并且每个服务器可能有一些独特的日志消息