在hadoop中有没有一种方法可以将大量的文件合并成一组较小的文件?我有大约1000多个由进程创建的文件。我想将这些文件合并到本地服务器上的10个文件中。我使用了getmerge,但它将1000多个文件合并到本地服务器上的1个大文件中。我使用了copytolocal,并按原样复制所有1000多个文件。
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!