直接使用scp将hdfs文件复制到远程linux服务器?

jogvjijk  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(482)

我有一个将最新生成的hdfs文件复制到linux远程服务器的用例。我不想在本地文件系统中存储中间文件,然后对远程服务器执行scp。
我知道这一点,但我想避免它(因为显而易见的原因-在本地fs中存储巨大文件的开销)

hadoop fs -copyToLocal <src> <dest>
and then scp toMyLinuxFileSystem

是否有直接将hdfs文件复制到远程linux服务器的命令?

t1rydlwq

t1rydlwq1#

如果需要,可以使用linux管道来流式传输数据 ssh 到服务器可用

hdfs dfs -cat my-file.txt | ssh myserver.com 'cat > /path/to/my-file.txt'

第一个命令以流的形式读取文件数据,第二个命令将其重定向到远程服务器。为我工作。考虑到ssh有时会超时,如果很长一段时间没有任何东西在电线上。
此答案的积分:https://superuser.com/questions/291829

相关问题