hive

cbjzeqam  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(261)

目前我们正在开发hive,它在mapr集群中默认使用mapreduce作为处理框架。现在我们要从map reduce更改为spark以获得更好的性能。根据我的理解,我们需要设置hive.execution.engine=spark。
现在我的问题是spark上的hive当前是否受mapr支持?如果是,我们需要做哪些配置更改?
非常感谢你的帮助。谢谢

8aqjt8rx

8aqjt8rx1#

不,mapr(5.2)不支持这个。从他们的文件里,
mapr不支持spark上的配置单元。因此,不能将spark用作配置单元的执行引擎。但是,可以在同一集群上运行hive和spark。您还可以使用sparksql和drill来查询配置单元表。
干杯。

fkvaft9z

fkvaft9z2#

我知道并理解您的问题是关于使用spark作为hive的数据处理引擎;正如你在不同的答案中看到的,它现在还没有得到mapr的官方支持。
但是,如果您的目标是使hive更快,并且不使用mapreduce,您可以切换到tez,为此安装mep3.0。
请参见:http://maprdocs.mapr.com/home/hive/hiveandtez.html

相关问题