Google bigquery 加载具有数千列的表

Google bigquery 加载具有数千列的表,google-bigquery,Google Bigquery,我有一个CSV数据文件,包含5000多个变量(列)。可以将其加载到BigQuery表中吗?如果是这样的话,在web UI导入向导对话框“指定架构”步骤截断架构规范字符串时,最好的选择是什么。只要行不太大,5000列就不会有问题。什么太大了?BigQuery表示,当使用JSON时,20MB是每行的最大大小,而CSV为1MB 如果您有那么多列,我建议使用bq.py命令行进行加载。谢谢,我们将继续调查。太长的是定义架构列的字符串(5000+冒号分隔的名称:type),因为它在交互式BigQuery导入

我有一个CSV数据文件,包含5000多个变量(列)。可以将其加载到BigQuery表中吗?如果是这样的话,在web UI导入向导对话框“指定架构”步骤截断架构规范字符串时,最好的选择是什么。

只要行不太大,5000列就不会有问题。什么太大了?BigQuery表示,当使用JSON时,20MB是每行的最大大小,而CSV为1MB


如果您有那么多列,我建议使用bq.py命令行进行加载。

谢谢,我们将继续调查。太长的是定义架构列的字符串(5000+冒号分隔的名称:type),因为它在交互式BigQuery导入向导UI(在指定架构步骤)中被截断。实际上,我现在正在尝试创建表并使用应用程序脚本从云存储导入。有什么例子吗?另一个我比较喜欢的选择是Java。但我会看一看建议的Python脚本。如果您想使用java,这里有一个java加载示例: