Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/google-app-engine/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 有可能从几个蝗虫奴隶那里将日志写入一个文件吗?_Python_Python 3.x_Logging_Load Testing_Locust - Fatal编程技术网

Python 有可能从几个蝗虫奴隶那里将日志写入一个文件吗?

Python 有可能从几个蝗虫奴隶那里将日志写入一个文件吗?,python,python-3.x,logging,load-testing,locust,Python,Python 3.x,Logging,Load Testing,Locust,我在几台机器上使用蝗虫()。带有--logfile选项的每个--slave和--master节点都将日志写入其目录。 是否可以让他们将一个通用日志写入单个文件? 因为每次从所有机器上收集和分析日志都非常不方便。我不知道您正在从日志中分析什么(因此这可能是您想要的答案,也可能不是您想要的答案),但是您可以使用蝗虫的--csv命令行选项(也可能是--csv full history),让主节点持续以CSV格式将聚合请求统计信息和失败写入文件。我不熟悉Hocust,但我确实使用集群上的loguru使用

我在几台机器上使用蝗虫()。带有--logfile选项的每个--slave和--master节点都将日志写入其目录。 是否可以让他们将一个通用日志写入单个文件?
因为每次从所有机器上收集和分析日志都非常不方便。

我不知道您正在从日志中分析什么(因此这可能是您想要的答案,也可能不是您想要的答案),但是您可以使用蝗虫的
--csv
命令行选项(也可能是
--csv full history
),让主节点持续以CSV格式将聚合请求统计信息和失败写入文件。

我不熟悉Hocust,但我确实使用集群上的
loguru
使用其
enqueue
参数将不同工作人员的日志写入同一文件。我注册服务器上所有不成功的响应,如果能在一个文件中看到服务器返回的错误、请求和机器,那就太好了。然后我建议您使用一些第三方日志服务器或数据库来集中报告和存储这些错误。或者—如果当前解决方案的唯一问题是您必须手动获取所有日志文件—编写一个脚本,下载并合并所有日志文件。