Google bigquery 无法上载以整数开头的CSV
我被一个奇怪的BigQuery错误所困扰:我无法上传一个以整数开头(第一行,第一列)的CSV文件 这是我的模式:Google bigquery 无法上载以整数开头的CSV,google-bigquery,Google Bigquery,我被一个奇怪的BigQuery错误所困扰:我无法上传一个以整数开头(第一行,第一列)的CSV文件 这是我的模式:COL1:INTEGER,COL2:INTEGER,COL3:STRING 以下是我的csv文件内容: 100,4,XXX 100,4,XXX 如果我把字符串列作为第一列,那么上传就可以了 如果我添加了一个头并告诉BigQuery在导入过程中跳过它,那么上传也可以 但对于上面的CSV和模式,BigQuery总是抱怨:行:1/字段:1,值无法转换为预期类型。 有人知道问题出在哪里吗 提
COL1:INTEGER,COL2:INTEGER,COL3:STRING
以下是我的csv文件内容:
100,4,XXX
100,4,XXX
如果我把字符串列作为第一列,那么上传就可以了
如果我添加了一个头并告诉BigQuery在导入过程中跳过它,那么上传也可以
但对于上面的CSV和模式,BigQuery总是抱怨:行:1/字段:1,值无法转换为预期类型。
有人知道问题出在哪里吗
提前谢谢大家,,
David我无法重现这个问题——我将内容复制并粘贴到一个文件中,并毫无问题地上传了它 也许上传的文件格式被破坏了?如果文件开头有多余的字节,则在头行中会忽略这些字节,但如果第一个字段的第一个值应为整数,则可能会导致此错误。我建议检查文件中的实际二进制数据,以确保没有任何有趣的事情发生
另外,您是否通过web UI、命令行工具或API进行导入?您尝试过其他方法吗?您可以在引号(“100”)中使用Helo jsondit。实际上我是在尝试WebUI。对不起,我没有完成我的回答:我尝试了WebUI和JavaAPI,结果是一样的。实际上你是对的,开头有几个字节,我想是因为UTF8有/没有BOM编码。非常感谢。