将文本分隔表的输出写入本地unix时hadoop fs-cat命令出错
我有大量的数据存储在一个文本分隔表中,该表的将文本分隔表的输出写入本地unix时hadoop fs-cat命令出错,hadoop,hdfs,Hadoop,Hdfs,我有大量的数据存储在一个文本分隔表中,该表的DDL是我通过Impala创建的,我用Hive中的数据将其写入Unix中的本地文件系统。 我在HDFS表位置路径中有多个文件,这是我使用的命令: hadoop fs-cat'/*'>/unixlocalpathandfilename.csv 我有两个错误: cat:是目录错误 因为其中有一个impala\u insert\u暂存目录,所以如何避免此错误 cat:无法写入输出流 还是应该使用get命令或getmerge命令将数据获取到本地文件中? 如何避
DDL
是我通过Impala
创建的,我用Hive
中的数据将其写入Unix
中的本地文件系统。
我在HDFS
表位置路径中有多个文件,这是我使用的命令:
hadoop fs-cat'/*'>/unixlocalpathandfilename.csv
我有两个错误:
cat:是目录错误
因为其中有一个impala\u insert\u暂存目录,所以如何避免此错误
cat:无法写入输出流
还是应该使用get
命令或getmerge
命令将数据获取到本地文件中?
如何避免上述错误并成功运行命令。我将执行以下操作
hdfs dfs -getmerge [-nl] <localdst> /unixlocalpath
-nl Add a newline character at the end of each file.
hdfs-dfs-getmerge[-nl]/unixlocalpath
-nl在每个文件的末尾添加换行符。
如果您单击我的解决方案作为已接受的解决方案,我将不胜感激。当做