Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/vim/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/asp.net-mvc/16.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Salesforce使用Apex数据加载器批量上载错误:超出存储限制_Salesforce_Bulkinsert_Bulkloader_Bulk Load - Fatal编程技术网

Salesforce使用Apex数据加载器批量上载错误:超出存储限制

Salesforce使用Apex数据加载器批量上载错误:超出存储限制,salesforce,bulkinsert,bulkloader,bulk-load,Salesforce,Bulkinsert,Bulkloader,Bulk Load,当我尝试批量上传25000条自定义(雇员)对象的记录时,我会收到错误,指出“超出了存储限制”。 我已确保salesforce中没有employee对象(使用data loader delete)。我确保回收站已清空。使用数据加载器时,我的批处理大小为100 现在,当我使用java客户端和批量上传API尝试相同的操作时,上传工作非常完美,即使插入100000条记录也没有错误 有人知道为什么我只有在使用apex数据加载器时才会出现此错误吗?可能是其他对象、文档和附件占用了空间。如果您可以检查总共有多

当我尝试批量上传25000条自定义(雇员)对象的记录时,我会收到错误,指出“超出了存储限制”。 我已确保salesforce中没有employee对象(使用data loader delete)。我确保回收站已清空。使用数据加载器时,我的批处理大小为100

现在,当我使用java客户端和批量上传API尝试相同的操作时,上传工作非常完美,即使插入100000条记录也没有错误


有人知道为什么我只有在使用apex数据加载器时才会出现此错误吗?

可能是其他对象、文档和附件占用了空间。如果您可以检查总共有多少可用空间,还有多少剩余空间,这将有所帮助。为此,请转到设置>管理设置>数据管理>存储使用。
此屏幕将为您提供关于哪个对象有多少记录和消耗多少字节的高级详细信息。

在这两种情况下(使用批量API和数据加载程序),我都超过了存储限制。我想我很幸运有了批量API。昨天,我甚至无法使用批量API重复插入25k条记录。这两种方法都以超过免费5MB标记的不同百分比失败。 出现混淆的原因是“超出存储空间错误”不会在超出存储空间后立即出现。它可能在使用15MB或100MB后出现(超过默认的5MB空闲时间)

结论:一旦超出为该用户帐户分配的数据存储,则无论是否使用批量api或apex data loader进行插入,都会出现存储超出错误。你需要购买更多的存储空间! 谢谢
Sameer

使用Java客户端上传了10万条记录后,您的存储使用情况如何?在我看来,您可能已经超出了限制(这是可能的),并且dataloader有更好的错误检查功能。这是沙盒、开发者版还是什么?是的,这正是问题所在。在这两种情况下(使用BulkAPI和dataloader),我都超过了限制。我想我很幸运有了批量API。昨天,我甚至无法使用批量API重复插入25k条记录。这两种方法都以超过免费5MB标记的不同百分比失败。非常感谢。不用担心,我知道我应该试着用这句话作为回答;)