Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud platform google云数据准备-从BigQuery导入数据集时出错_Google Cloud Platform_Google Bigquery_Google Cloud Dataprep - Fatal编程技术网

Google cloud platform google云数据准备-从BigQuery导入数据集时出错

Google cloud platform google云数据准备-从BigQuery导入数据集时出错,google-cloud-platform,google-bigquery,google-cloud-dataprep,Google Cloud Platform,Google Bigquery,Google Cloud Dataprep,当我尝试在数据准备流中将bigquery表作为dataset导入时,出现以下错误: 无法创建数据集:I/o错误 我尝试导入许多bigquery表(它们来自同一个BQ数据集),所有这些表都已成功导入,但其中有许多列(超过2700列!)。 也许这是因为有很多列,但我在文档中看不到任何这样的限制 当我选择表格-->时,会出现如下消息“预览不可用”: 单击“导入”后: 有人知道为什么会发生这种情况或者有什么建议吗?Dataprep文档没有最大列限制,因此不太可能是这个问题 另一方面,我在导入数据时看

当我尝试在数据准备流中将bigquery表作为dataset导入时,出现以下错误:

无法创建数据集:I/o错误

我尝试导入许多bigquery表(它们来自同一个BQ数据集),所有这些表都已成功导入,但其中有许多列(超过2700列!)。 也许这是因为有很多列,但我在文档中看不到任何这样的限制

当我选择表格-->时,会出现如下消息“预览不可用”:

单击“导入”后:


有人知道为什么会发生这种情况或者有什么建议吗?

Dataprep文档没有最大列限制,因此不太可能是这个问题

另一方面,我在导入数据时看到了诸如“I/O错误”或只是红色图标之类的通用消息,它们与


我认为,在BQ中找到Dataprep中不兼容的类型并转换为兼容的类型应该可以解决您的问题。

在我这边的大型数据集上似乎也会出现这种情况(大约80k行和2000列)。尝试了高级设置和删除类型推断,但也不起作用。