将文本分隔表的输出写入本地unix时hadoop fs-cat命令出错

将文本分隔表的输出写入本地unix时hadoop fs-cat命令出错,hadoop,hdfs,Hadoop,Hdfs,我有大量的数据存储在一个文本分隔表中,该表的DDL是我通过Impala创建的,我用Hive中的数据将其写入Unix中的本地文件系统。 我在HDFS表位置路径中有多个文件,这是我使用的命令: hadoop fs-cat'/*'>/unixlocalpathandfilename.csv 我有两个错误: cat:是目录错误 因为其中有一个impala\u insert\u暂存目录,所以如何避免此错误 cat:无法写入输出流 还是应该使用get命令或getmerge命令将数据获取到本地文件中? 如何避

我有大量的数据存储在一个文本分隔表中,该表的
DDL
是我通过
Impala
创建的,我用
Hive
中的数据将其写入
Unix
中的
本地文件系统。
我在
HDFS
表位置路径中有多个文件,这是我使用的命令:

hadoop fs-cat'/*'>/unixlocalpathandfilename.csv

我有两个错误:

  • cat:是目录错误

    因为其中有一个impala\u insert\u暂存目录,所以如何避免此错误
  • cat:无法写入输出流
  • 还是应该使用
    get
    命令或
    getmerge
    命令将数据获取到本地文件中?

    如何避免上述错误并成功运行命令。

    我将执行以下操作

    hdfs dfs -getmerge [-nl] <localdst> /unixlocalpath
    
    -nl  Add a newline character at the end of each file.
    
    hdfs-dfs-getmerge[-nl]/unixlocalpath
    -nl在每个文件的末尾添加换行符。
    
    如果您单击我的解决方案作为已接受的解决方案,我将不胜感激。当做