Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/sql/68.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/json/15.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql SSIS-该值太大,无法放入缓冲区的列数据区域_Sql_Json_Ssis_Buffer_Script Component - Fatal编程技术网

Sql SSIS-该值太大,无法放入缓冲区的列数据区域

Sql SSIS-该值太大,无法放入缓冲区的列数据区域,sql,json,ssis,buffer,script-component,Sql,Json,Ssis,Buffer,Script Component,我将向脚本组件传递一列Json数据以进行处理。在我得到一个长度超过600000的Json数据之前,一切都很顺利,然后发生了以下错误 我确实将MaxBuffer大小更改为10MB,我的数据只有600K左右,但仍然无法正常工作,请给出建议 您需要检查的东西很少- 如果正在使用分配给输出列的字符串,请转到输出列的属性,并将其长度设置为更高的值。将输出列中字符串的大小设置为大于原始字符串的大小。还要比较脚本任务的输入列和输出列的大小(右键单击->显示高级编辑器…),并查找大于输出列的输入列。注意脚本组

我将向脚本组件传递一列Json数据以进行处理。在我得到一个长度超过600000的Json数据之前,一切都很顺利,然后发生了以下错误


我确实将MaxBuffer大小更改为10MB,我的数据只有600K左右,但仍然无法正常工作,请给出建议

您需要检查的东西很少-

如果正在使用分配给输出列的字符串,请转到输出列的属性,并将其长度设置为更高的值。将输出列中字符串的大小设置为大于原始字符串的大小。还要比较脚本任务的输入列和输出列的大小(右键单击->显示高级编辑器…),并查找大于输出列的输入列。注意脚本组件输出部分的列大小

如果您使用的是父子包,那么请注意,子包和父包之间不共享管道缓冲区,因此您需要相应地设置属性

要检查截断发生的位置,请尝试实现DoesNotFitBufferException


如果您使用的是SQLServer2005,那么有必要查看线程

感谢您的回复。我使用的是异步输入/输出,脚本是对Json数据进行反序列化的,所以我认为输出列与此无关。我刚刚测试过,它可以很好地处理160k个字符的Json数据,但在处理190k个字符的Json时失败了。这个答案帮助我确定了我的问题。实际上,输出列的字符数比分配给它的字符数少。谢谢