错误:将pysparkDataframe写入habse时

x9ybnkn6  于 2021-06-07  发布在  Hbase
关注(0)|答案(1)|浏览(268)

我正在尝试将pysparkDataframe写入hbase。面对下面的错误。
我的群集上的spark和hbase版本是:
spark版本:2.4.0 hbase版本:1.4.8
spark提交

spark-submit --jars /tmp/hbase-spark-1.0.0.jar   --packages com.hortonworks:shc-core:1.1.1-2.1-s_2.11 --repositories http://repo.hortonworks.com/content/groups/public/ --files /etc/hbase/conf/hbase-site.xml to_hbase.py

错误:

任何帮助都将不胜感激!

vptzau2j

vptzau2j1#

这是一个已知的问题-使用spark2.4的spark habse连接器(shc)。
达南杰·帕特卡做了一个修正。
检查:带spark 2.4的shc和his修复

相关问题