Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/magento/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
“Magento进口”;“空白”;即使在上载导出文件时也会出错_Magento_Magento 1.9 - Fatal编程技术网

“Magento进口”;“空白”;即使在上载导出文件时也会出错

“Magento进口”;“空白”;即使在上载导出文件时也会出错,magento,magento-1.9,Magento,Magento 1.9,使用数据流导入上载库存文件时遇到问题。我只导入了大约500个项目,但在记录42处,它似乎发现了一个错误,只显示了一个空白的红色条,没有对错误的描述。如果使用少于40行运行导入,则不会出现错误 为了消除我的格式/编码,我导出了产品库存文件,然后尝试导入相同的文件并得到相同的“空白”错误。我已经尝试了几乎所有我能找到的东西,没有任何运气。看看有没有其他人有什么想法或者别的什么我可以试试 Magento版本-1.9.2.1您应该通过增加服务器限制来尝试: 像这样的东西 max_execution_ti

使用数据流导入上载库存文件时遇到问题。我只导入了大约500个项目,但在记录42处,它似乎发现了一个错误,只显示了一个空白的红色条,没有对错误的描述。如果使用少于40行运行导入,则不会出现错误

为了消除我的格式/编码,我导出了产品库存文件,然后尝试导入相同的文件并得到相同的“空白”错误。我已经尝试了几乎所有我能找到的东西,没有任何运气。看看有没有其他人有什么想法或者别的什么我可以试试


Magento版本-1.9.2.1

您应该通过增加服务器限制来尝试:

像这样的东西

max_execution_time = 36000 ; // Maximum execution time of each script, in seconds
max_input_time = 60 ;  // Maximum amount of time each script may spend parsing request data
memory_limit = 1024M ; // Maximum amount of memory a script may consume (32MB)
或者

您可以在index.php中通过replace尝试以下代码

ini_set('memory_limit', '1024M');
ini_set('max_execution_time', 36000);   

另外,请查看

我可能会迟到,但以下是我为克服相同问题所做的工作

在免费在线CSV拆分器的帮助下,将您的CSV产品文件拆分为小CSV文件,每个文件由40个产品组成。(我有一个包含3000多个产品的CSV文件。因此,它被拆分为75个文件。)

然后将所有这些小CSV文件上传到服务器的“var/import/”文件夹中。现在登录到magento的后端,进入系统>导入/导出>数据流配置文件,选择您的配置文件,然后进入“运行配置文件”。在这里,您可以在下拉列表中看到所有上载的CSV文件。现在逐一执行这些文件。相当长的过程,但值得


请注意,在执行每个文件之后,您需要等待至少2分钟才能刷新索引。否则,您可能会再次出现相同的红色空白错误

大多数情况下可能是内存限制问题。和max_execution time我最初认为这也是一个内存问题,我应该提到它,但我已经将.htaccess文件更改为:#php_value memory_limit 2048M&#php_value max_execution_time 88000,性能没有变化。还有其他地方可以限制内存使用吗?