hive无法通过在spark中调用saveastable来查询save表

uqcuzwp8  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(220)

我试图使用配置单元来查询使用spark dataframe提供的saveastable()保存的表。使用hivecontext.sql()进行查询时,一切正常。但是,当我切换到hive并描述表时,它会变成col、array,类似于这样,并且不再是可查询的。
你知道怎么解决吗?有没有可靠的方法让hive理解spark中定义的元数据而不是显式定义模式?
有时我使用spark从原始数据推断模式,或者从某些文件格式(如parquet)读取模式,所以不想创建这些可以自动推断的表。
谢谢你的建议!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题