Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/293.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
我的一个PHP文件流量很大,我应该拆分成几个相同的文件吗?_Php_Traffic_Traffic Measurement_High Traffic - Fatal编程技术网

我的一个PHP文件流量很大,我应该拆分成几个相同的文件吗?

我的一个PHP文件流量很大,我应该拆分成几个相同的文件吗?,php,traffic,traffic-measurement,high-traffic,Php,Traffic,Traffic Measurement,High Traffic,好的,我得到了来自世界各地的大量流量到托管在我的服务器上的php文件。该文件对访问者运行多个检查,运行多个SQL查询,并决定用户状态 我每秒会被点击数百次 所以,我的问题是: 我应该创建许多相同的文件,并随机将流量驱动到我创建的每个文件吗 我想避免交通损失和超载,但我不知道这是否重要,即使分裂到不同的文件 感谢所有的帮助。同一文件的多个副本不会以任何方式减少请求数量,而且由于每个请求都是一个完全独立的线程,因此不会产生速度差异,但如果您使用APC操作码cachingI,将使用更多内存。我将Fas

好的,我得到了来自世界各地的大量流量到托管在我的服务器上的php文件。该文件对访问者运行多个检查,运行多个SQL查询,并决定用户状态

我每秒会被点击数百次

所以,我的问题是: 我应该创建许多相同的文件,并随机将流量驱动到我创建的每个文件吗

我想避免交通损失和超载,但我不知道这是否重要,即使分裂到不同的文件


感谢所有的帮助。

同一文件的多个副本不会以任何方式减少请求数量,而且由于每个请求都是一个完全独立的线程,因此不会产生速度差异,但如果您使用APC操作码cachingI,将使用更多内存。我将FastCGI与eAccelerator一起使用。所以,我应该保留同一个文件,这就是我的想法。谢谢你,伙计