Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
错误-“给定给类型“VarChar”的大小(12000)超过Azure dataware house中允许的最大值(8000)”_Azure_Hadoop_Data Warehouse_Azure Synapse - Fatal编程技术网

错误-“给定给类型“VarChar”的大小(12000)超过Azure dataware house中允许的最大值(8000)”

错误-“给定给类型“VarChar”的大小(12000)超过Azure dataware house中允许的最大值(8000)”,azure,hadoop,data-warehouse,azure-synapse,Azure,Hadoop,Data Warehouse,Azure Synapse,我试图在Azure Dataware house中执行T-SQL,但它不允许我的数据类型大于varchar8000,请任何人提出一些替代方案。 同样的问题也发生在表的创建上,它不支持blob或LOB数据类型,即使是大容量加载或poly-base加载,所以我最终加载了修剪过的数据。您可以尝试VARCHARMAX,它最多支持2GB,但SQL中的页面大小仍然限制在8000,所以我不确定这是否有用。Polybase限制为每行1MB。下面是另一个您可以尝试VARCHARMAX,它将支持高达2GB的数据,但

我试图在Azure Dataware house中执行T-SQL,但它不允许我的数据类型大于varchar8000,请任何人提出一些替代方案。
同样的问题也发生在表的创建上,它不支持blob或LOB数据类型,即使是大容量加载或poly-base加载,所以我最终加载了修剪过的数据。

您可以尝试VARCHARMAX,它最多支持2GB,但SQL中的页面大小仍然限制在8000,所以我不确定这是否有用。Polybase限制为每行1MB。下面是另一个

您可以尝试VARCHARMAX,它将支持高达2GB的数据,但SQL中的页面大小仍然限制在8000,因此我不确定这是否有帮助。Polybase限制为每行1MB。下面是另一个有用的SO条目:@JoelCochran:你能回答这个问题吗@MichaelRys-完成:-