Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/extjs/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php WWW::机械化VS卷曲_Php_Perl_Performance_Curl_Www Mechanize - Fatal编程技术网

Php WWW::机械化VS卷曲

Php WWW::机械化VS卷曲,php,perl,performance,curl,www-mechanize,Php,Perl,Performance,Curl,Www Mechanize,背景:我需要获取所有用户的更新数据。 数据驻留在安全站点上,因此脚本需要登录(使用cookie) 遍历一些内部URL,然后获取所需的数据 工具:WWW::Mechanize或Curl 什么是满足我需求的最佳工具? 性能是一个大问题,我需要尽快获得更新的数据,因为我需要向许多用户提供更新的数据 是否可以使用WWW::Mechanize库触发多个请求 更新: 我用Curl运行它。 但我在想我可以加快速度 它是用机械化来完成的。 哪个库性能更好 关于HTTP请求? 有统计数字吗? 现在我正在使用Cur

背景:我需要获取所有用户的更新数据。 数据驻留在安全站点上,因此脚本需要登录(使用cookie) 遍历一些内部URL,然后获取所需的数据

工具:WWW::Mechanize或Curl

什么是满足我需求的最佳工具? 性能是一个大问题,我需要尽快获得更新的数据,因为我需要向许多用户提供更新的数据

是否可以使用WWW::Mechanize库触发多个请求

更新: 我用Curl运行它。 但我在想我可以加快速度 它是用机械化来完成的。 哪个库性能更好 关于HTTP请求? 有统计数字吗? 现在我正在使用Curl和
多接口。

WWW::Mechanize是一个perl模块。因此,您可以使用该语言的所有功能,例如多进程。

WWW::Mechanize是一个perl模块。因此,您可以使用该语言的所有功能,例如多个进程