Unix 如何将hadoop命令的搜索结果写入文件
我只想从hadoop中的目录中获取文件名,并将其保存到hadoop或本地计算机中的其他位置。我在该文件夹中有1000多个文件,我想知道这些文件的名称。 我尝试了下面的comand,但无法将其保存到某个位置Unix 如何将hadoop命令的搜索结果写入文件,unix,hadoop,Unix,Hadoop,我只想从hadoop中的目录中获取文件名,并将其保存到hadoop或本地计算机中的其他位置。我在该文件夹中有1000多个文件,我想知道这些文件的名称。 我尝试了下面的comand,但无法将其保存到某个位置 对于hadoop fs-ls/base/base1 | awk'{print$NF}'| grep.json$|tr'\n''中的文件名;不回显$filename;完成hadoop fs-ls/base/base1 | awk'{print$NF}“|grep.json$|tr'\n''”>s
对于hadoop fs-ls/base/base1 | awk'{print$NF}'| grep.json$|tr'\n''中的文件名;不回显$filename;完成
hadoop fs-ls/base/base1 | awk'{print$NF}“|grep.json$|tr'\n''”>somefile.txt
感谢您的即时响应。我已经尝试过了,但结果是/base/base1/file1.json/base/base1/file2.json/base/base1/file3.json等等。可能是我应该添加空格分隔符或其他东西来解决这个问题,最终得到了作为hadoop fs-stat的解决方案“%n”/base/base1/*>output1.txt