我已经使用spark在python代码中创建了一个外部配置单元表,但当我想使用配置单元shell查看表时遇到了问题。
这些请求都不起作用:
describe hive_table, SELECT, Alter......
* hive> describe hive_table;
*失败:semanticexception无法获取表hive\u表。java.io.ioexception:scheme:null没有文件系统
创建外部配置单元表:
(df.write.partitionBy(config['col_part'])
.mode('overwrite')
.format(config['format_tbl_hive'])
.saveAsTable(hive_tbl, path=hive_tbl_dir))
暂无答案!
目前还没有任何答案,快来回答吧!