为什么csv数据只加载到配置单元表的第一列?

为什么csv数据只加载到配置单元表的第一列?,csv,hive,hdfs,Csv,Hive,Hdfs,我上传了一个包含以下数据的csv: 以下是我用来将数据上传到hive的命令 将文件拖动到linux文件系统 使用以下命令上载到hdfs。 hadoop fs-put“/home/kdeep/kd_city_data.csv”/home/kdeep 使用配置单元加载数据 将路径“/home/kdeep”中的数据加载到表dev.k_站点中 我的桌子看起来像这样: 如何创建表格?必须指定分隔符: 配置单元>创建表dev.k_站点(字符串位置、年份字符串、perc_food double、perc_g

我上传了一个包含以下数据的csv:

以下是我用来将数据上传到hive的命令

  • 将文件拖动到linux文件系统

  • 使用以下命令上载到hdfs。 hadoop fs-put“/home/kdeep/kd_city_data.csv”/home/kdeep

  • 使用配置单元加载数据 将路径“/home/kdeep”中的数据加载到表dev.k_站点中

  • 我的桌子看起来像这样:

    如何创建表格?必须指定分隔符:


    配置单元>创建表dev.k_站点(字符串位置、年份字符串、perc_food double、perc_g double)行格式分隔字段,以“,”结尾

    这本应该解决问题的。但是,它不起作用。它实际上解决了问题。我不知道前几天它为什么不起作用。谢谢,我也有同样的问题。包括关于解决方案而不是解决问题的部分。对我来说,我是通过黑斑羚(不是直接通过蜂巢)来确认改变的,这导致表defn仍然不正确。然后从impala开始,您必须:使元数据表_NAME;&执行刷新表名;在我看来,这是个狡猾的定界符。