Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/259.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在PHP中获取2GB文件?_Php_Download_Large Files - Fatal编程技术网

在PHP中获取2GB文件?

在PHP中获取2GB文件?,php,download,large-files,Php,Download,Large Files,我需要通过PHP下载一个非常大的文件,上次我通过http手动下载时,文件大小为2.2gb,下载需要几个小时。我想以某种方式自动下载 以前我用过 file_put_contents($filename, file_get_contents($url)); 这样大的文件可以吗?我想在下载后卸载文件,然后对tarball中的各种文件进行分析。您必须调整php.ini以接受上载中的较大文件,并调整内存使用限制。您必须调整php.ini以接受上载中的较大文件,并调整内存使用限制。file\u get\u

我需要通过PHP下载一个非常大的文件,上次我通过http手动下载时,文件大小为2.2gb,下载需要几个小时。我想以某种方式自动下载

以前我用过

file_put_contents($filename, file_get_contents($url));

这样大的文件可以吗?我想在下载后卸载文件,然后对tarball中的各种文件进行分析。

您必须调整php.ini以接受上载中的较大文件,并调整内存使用限制。

您必须调整php.ini以接受上载中的较大文件,并调整内存使用限制。

file\u get\u contents()适用于小文件,但完全不适用于大文件。因为它将整个文件加载到内存中,所以每个脚本实例需要2GB的RAM

您应该改用旧的fopen()+fread()

另外,不要放弃使用第三方下载工具,如wget(在许多Linux系统中默认安装),而创建一个cron任务来运行它。这可能是实现每日下载自动化的最佳方法。

file\u get\u contents()适用于小文件,但完全不适用于大文件。因为它将整个文件加载到内存中,所以每个脚本实例需要2GB的RAM

您应该改用旧的fopen()+fread()

另外,不要放弃使用第三方下载工具,如wget(在许多Linux系统中默认安装),而创建一个cron任务来运行它。这可能是自动化每日下载的最佳方式