Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/262.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
我可以复制几个php文件以减少负载吗?_Php_Request_Response - Fatal编程技术网

我可以复制几个php文件以减少负载吗?

我可以复制几个php文件以减少负载吗?,php,request,response,Php,Request,Response,我想知道,如果在一台服务器的一个php脚本上有大量并发http请求,请求是否会因为单个php脚本而变慢? 如果我将同一脚本复制多个副本 e、 g 这3个脚本的内容都相同。那么,如果客户端请求随机选择要请求的任何一个页面,php页面访问速度会更高吗 这正是我减少负载和请求响应时间的想法。我想知道我的想法是否有道理 我想知道,如果在一台服务器的一个php脚本上有大量并发http请求,那么请求是否会因为单个php脚本而变慢 没有 这正是我减少负载和请求响应时间的想法。我想知道我的想法是否有道理 没有

我想知道,如果在一台服务器的一个php脚本上有大量并发http请求,请求是否会因为单个php脚本而变慢?
如果我将同一脚本复制多个副本

e、 g

这3个脚本的内容都相同。那么,如果客户端请求随机选择要请求的任何一个页面,php页面访问速度会更高吗

这正是我减少负载和请求响应时间的想法。我想知道我的想法是否有道理

我想知道,如果在一台服务器的一个php脚本上有大量并发http请求,那么请求是否会因为单个php脚本而变慢

没有

这正是我减少负载和请求响应时间的想法。我想知道我的想法是否有道理

没有

我想知道,如果在一台服务器的一个php脚本上有大量并发http请求,那么请求是否会因为单个php脚本而变慢

没有

这正是我减少负载和请求响应时间的想法。我想知道我的想法是否有道理


不,不会的。处理脚本的是Web服务器,因此任何减速都是在Web服务器上,而不是在PHP脚本文件的副本数量上

这并不是说写得不好的脚本不会增加很多开销

但是跨多个文件复制脚本不是一个好主意。。。如果需要更改代码,则需要对每个文件进行多次更改

编辑


您可以使用ApacheBench之类的工具来测试当您拥有大量用户时,事情处理得有多好,看看这会有多大问题。

不,不会。处理脚本的是Web服务器,因此任何减速都是在Web服务器上,而不是在PHP脚本文件的副本数量上

这并不是说写得不好的脚本不会增加很多开销

但是跨多个文件复制脚本不是一个好主意。。。如果需要更改代码,则需要对每个文件进行多次更改

编辑


您可以使用ApacheBench之类的工具来测试当您有大量用户时,处理情况会有多好,看看这会有多大问题。

如果有什么不同的话,对同一文件有多个请求应该会因为缓存而提高每个请求的速度,即使只是在硬件级别。绝对不要复制文件。

如果有的话,对同一文件有多个请求应该会由于缓存而提高每个请求的速度,即使只是在硬件级别。绝对不要复制文件。

您的想法不会带来太大的性能提升。看这里,服务器必须是有效的。正确缓存页面。根据您的想法,性能增益不是很大。看这里,服务器必须是有效的。正确缓存页面。
script1.php, script2.php, script3.php