Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/magento/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
面临Magento 2.2.9版本的问题_Magento_Magento2_Traffic - Fatal编程技术网

面临Magento 2.2.9版本的问题

面临Magento 2.2.9版本的问题,magento,magento2,traffic,Magento,Magento2,Traffic,我的网站每2-3天关闭一次。它没有显示任何前期错误,浏览器持续加载很长时间,但没有显示任何数据。当我检查apache错误日志时,发现Max Request Workers限制已用尽。在过去的10天里,我增加了同样的频率,频率增加到了5天,但仍然在下降。该网站于45天前启动,30天内运行良好。甚至我们也没有观察到交通量的增加。该站点位于AWS,平面图为t2.2xlarge。您是否使用许多过滤器进行分层导航?如果使用sql搜索,当机器人攻击它时,它将超过最大连接数,并将事情锁定并反复重复。一个可能的

我的网站每2-3天关闭一次。它没有显示任何前期错误,浏览器持续加载很长时间,但没有显示任何数据。当我检查apache错误日志时,发现Max Request Workers限制已用尽。在过去的10天里,我增加了同样的频率,频率增加到了5天,但仍然在下降。该网站于45天前启动,30天内运行良好。甚至我们也没有观察到交通量的增加。该站点位于AWS,平面图为t2.2xlarge。

您是否使用许多过滤器进行分层导航?如果使用sql搜索,当机器人攻击它时,它将超过最大连接数,并将事情锁定并反复重复。一个可能的区域可以查看。我已经遇到了这个问题,必须在robot.txt中阻止所有坏机器人。主要检查htaccess或firewall tune robot.txt中的中国机器人和IP阻止,以指示机器人延迟10。将您的站点连接到cloudflare,并对其进行调整,以禁止大量点击。一般来说,大多数中国机器人都不遵守规则,robot.txt我个人封锁了整个中国。

你检查过magento日志文件吗?如果看不到服务器日志/magento日志,很难猜测此类问题的原因。检查你的mysql服务器。我投票关闭这个问题,因为堆栈溢出是一个问答网站。你的问题不是关于编程。也许你应该把它贴上去?