从hadoop下载超过500万行的巨大csv文件

jc3wubiy  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(390)

我必须从 hadoop (使用配置单元编辑器)有超过500万行。我试着下载 csv 文件格式,但下载的文件不允许超过一百万行。如何解决这个问题?
提前谢谢。

wmomyfyw

wmomyfyw1#

hue在下载大量数据并将其流式传输到浏览器时不会有很好的表现,因为它不是为此而设计的。色调轻盈。
请检查这个jira:https://issues.cloudera.org/browse/hue-2142

rqenqsqc

rqenqsqc2#

如果您的数据在一个配置单元表中,那么您只需从数据所在的位置获取hadoop fs-get即可

相关问题