如何使用spark定义orc条纹大小?

wlwcrazw  于 2021-07-13  发布在  Spark
关注(0)|答案(0)|浏览(137)

我将spark作业提交到emr集群来处理文件,稍后将其作为orc文件写入,由presto读取。
在分析数千个文件时,我发现了一个问题,即条纹的大小被写入的行数比每个条纹预期的要少很多。
我知道在Hive里我可以设置一张table的条纹大小,但是有没有办法在spark里也可以设置呢?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题