形态
spark.conf.set('spark.sql.hive.convertMetastoreParquet', "true")
Hive表
spark.sql("create table table_name (ip string, user string) PARTITIONED BY (date date) STORED AS PARQUET")
插入
df.write.insertInto("table_name", overwrite=True)
错误
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.hive.execution.HiveFileFormat$$anon$1
顺便说一句,插入orc表是好的。以客户机模式在群集上运行。
1条答案
按热度按时间bkkx9g8r1#
spark config文件夹中是否存在hive-site.xml文件?
编辑:
你能试一下吗
不必事先设置任何配置,也不必运行SQLCREATE语句。