Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/php/279.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Php 致命错误:第0行中未知的1073741824字节的允许内存大小已用尽(尝试分配34467037488字节)_Php_Mydbr - Fatal编程技术网

Php 致命错误:第0行中未知的1073741824字节的允许内存大小已用尽(尝试分配34467037488字节)

Php 致命错误:第0行中未知的1073741824字节的允许内存大小已用尽(尝试分配34467037488字节),php,mydbr,Php,Mydbr,当我通过IFRAME加载myDBR URL时。我发现了以下错误 致命错误:第0行未知中允许的1073741824字节内存大小已用尽(尝试分配34467037488字节) 我已经设置了php.ini内存限制1256M,我还尝试了.htaccess文件php_值内存限制-1。但我确实得到了任何改进,请帮助我。您正在尝试分配34GB的数据 显然,1256Mb的内存限制是不够的 您需要: 重新考虑应用程序需要多少ram(推荐) 将内存限制增加到34GB(不推荐) 您试图分配34GB的数据 显然,125

当我通过IFRAME加载myDBR URL时。我发现了以下错误

致命错误:第0行未知中允许的1073741824字节内存大小已用尽(尝试分配34467037488字节)


我已经设置了php.ini内存限制1256M,我还尝试了.htaccess文件php_值内存限制-1。但我确实得到了任何改进,请帮助我。

您正在尝试分配34GB的数据

显然,1256Mb的内存限制是不够的

您需要:

  • 重新考虑应用程序需要多少ram(推荐)
  • 将内存限制增加到34GB(不推荐)

您试图分配34GB的数据

显然,1256Mb的内存限制是不够的

您需要:

  • 重新考虑应用程序需要多少ram(推荐)
  • 将内存限制增加到34GB(不推荐)

您试图分配34GB的数据

显然,1256Mb的内存限制是不够的

您需要:

  • 重新考虑应用程序需要多少ram(推荐)
  • 将内存限制增加到34GB(不推荐)

您试图分配34GB的数据

显然,1256Mb的内存限制是不够的

您需要:

  • 重新考虑应用程序需要多少ram(推荐)
  • 将内存限制增加到34GB(不推荐)


当PHP试图获取34467037488(是的,即34GB)内存时,您会遇到一个严重的问题。。。不要试图让PHP占用那么多内存,弄清楚它为什么要这么做,若你们直接在浏览器中调用这个URL,你们不会得到吗?你的问题是另一个。@MarkBaker我能为这个问题做些什么?请告诉我有两个常见的原因:1。无限循环或2。将非常大的数据读入内存而不是Streaming@Christian-当PHP试图一次性获取34GB时,不太可能是一个无限循环。。。。这通常只会在每次迭代时获取小块内存当PHP试图获取34467037488(是的,即34GB)内存时,您会遇到严重的问题。。。不要试图让PHP占用那么多内存,弄清楚它为什么要这么做,若你们直接在浏览器中调用这个URL,你们不会得到吗?你的问题是另一个。@MarkBaker我能为这个问题做些什么?请告诉我有两个常见的原因:1。无限循环或2。将非常大的数据读入内存而不是Streaming@Christian-当PHP试图一次性获取34GB时,不太可能是一个无限循环。。。。这通常只会在每次迭代时获取小块内存当PHP试图获取34467037488(是的,即34GB)内存时,您会遇到严重的问题。。。不要试图让PHP占用那么多内存,弄清楚它为什么要这么做,若你们直接在浏览器中调用这个URL,你们不会得到吗?你的问题是另一个。@MarkBaker我能为这个问题做些什么?请告诉我有两个常见的原因:1。无限循环或2。将非常大的数据读入内存而不是Streaming@Christian-当PHP试图一次性获取34GB时,不太可能是一个无限循环。。。。这通常只会在每次迭代时获取小块内存当PHP试图获取34467037488(是的,即34GB)内存时,您会遇到严重的问题。。。不要试图让PHP占用那么多内存,弄清楚它为什么要这么做,若你们直接在浏览器中调用这个URL,你们不会得到吗?你的问题是另一个。@MarkBaker我能为这个问题做些什么?请告诉我有两个常见的原因:1。无限循环或2。将非常大的数据读入内存而不是Streaming@Christian-当PHP试图一次性获取34GB时,不太可能是一个无限循环。。。。通常情况下,在我的服务器上,每次迭代都会占用一小块内存,内存为16GB。这是否足够或者我需要增加多少?显然,我的评论具有讽刺意味。您需要修复脚本,它不应该占用超过几MB的内存。16GB是不够的。你的剧本在做什么,破解基因组密码?入侵吉布森号?预测全球变暖?在我的服务器上有16GB内存。这是否足够或者我需要增加多少?显然,我的评论具有讽刺意味。您需要修复脚本,它不应该占用超过几MB的内存。16GB是不够的。你的剧本在做什么,破解基因组密码?入侵吉布森号?预测全球变暖?在我的服务器上有16GB内存。这是否足够或者我需要增加多少?显然,我的评论具有讽刺意味。您需要修复脚本,它不应该占用超过几MB的内存。16GB是不够的。你的剧本在做什么,破解基因组密码?入侵吉布森号?预测全球变暖?在我的服务器上有16GB内存。这是否足够或者我需要增加多少?显然,我的评论具有讽刺意味。您需要修复脚本,它不应该占用超过几MB的内存。16GB是不够的。你的剧本在做什么,破解基因组密码?入侵吉布森号?预测全球变暖?