Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 建立“的并发性”;“相同”;linux-Curl中的进程_Php_Linux_Curl_Concurrency - Fatal编程技术网

Php 建立“的并发性”;“相同”;linux-Curl中的进程

Php 建立“的并发性”;“相同”;linux-Curl中的进程,php,linux,curl,concurrency,Php,Linux,Curl,Concurrency,如何在linux中实现进程的真正并发性。我正在尝试使用简单的curl命令从linux客户机建立尽可能多的连接。为此,我想调用1000 curl到相同的目标URL,并测量每个请求所花费的时间 最好的方法是什么?另外,验证同时创建1000个请求(生成1000个进程)的最佳方法是什么 我尝试使用xargs,如下所示: seq 1 1000 | xargs -n1 -P1000 bash -c 'curl <url>' seq 1 1000 | xargs-n1-P1000 bash-c'

如何在linux中实现进程的真正并发性。我正在尝试使用简单的curl命令从linux客户机建立尽可能多的连接。为此,我想调用1000 curl到相同的目标URL,并测量每个请求所花费的时间

最好的方法是什么?另外,验证同时创建1000个请求(生成1000个进程)的最佳方法是什么

我尝试使用xargs,如下所示:

seq 1 1000 | xargs -n1 -P1000 bash -c 'curl <url>'
seq 1 1000 | xargs-n1-P1000 bash-c'curl'
它获取的URL的大小为几KBs,完全在网卡功能范围内。但是,它们的速度往往足够快,以至于我无法确定是否所有连接都是并发的,是否同时产生了1000个进程


有更好的方法吗?

查看命令,它允许您指定连接数和并发连接数。感谢Orangepill的建议。AB很好,但我想扩展它,使用除curl之外的其他工具,比如我的自定义应用程序。你应该看看GNU并行项目。它接受“-j1000”参数和您希望批量运行的命令。然后,您可以使用进程列表的快速grep来计算活动生成的curl请求。请查看该命令,它允许您指定连接数和并发连接数。感谢Orangepill的建议。AB很好,但我想扩展它,使用除curl之外的其他工具,比如我的自定义应用程序。你应该看看GNU并行项目。它接受“-j1000”参数和您希望批量运行的命令。然后,您可以使用进程列表的快速grep来计算活动生成的curl请求。