databricks ui中的spark submit作业无法访问现有的hive db

jjjwad0x  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(269)

我在databricks中创建了一个spark提交作业来运行.py脚本。我在python脚本中创建了一个spark对象。我试图访问现有的配置单元表。但我的脚本失败,出现“找不到表或视图”错误。我应该在spark submit作业中添加一些配置设置以连接到现有的配置单元元存储吗?

qhhrdooz

qhhrdooz1#

在spark 2.0中创建spark会话时,请尝试使用下面的方法+

spark = SparkSession.builder.enableHiveSupport().getOrCreate()

这通常可以解决此类错误

相关问题