spark 1.5-hivecontext无法运行

gv8xihay  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(159)

我在google计算引擎上部署了一个带有bdutil的hadoop集群。
我的配置
-操作系统:ubuntu 14
-Spark:1.5
-Hive:0.12
-1个主节点和2个工作节点
配置单元元存储配置:

我将hive-site.xml从hive复制到$spark\u home/conf/hive-site.xml(仅在主节点上)
当我尝试在pyspark shell中使用hivecontext时,收到以下消息错误:

...

有人知道怎么了吗?
先谢谢你

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题