如何处理spark中的特殊字符

fcipmucu  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(142)

我们在Kafka有avro数据,其中数据包含“fet”等特殊字符ää我ö".
我们正在尝试使用spark流作业将此数据插入配置单元。但我们观察到,在使用spark流处理这些数据时,特殊字符会变成垃圾值,比如“fet×l”。
如何使用spark接收具有特殊字符的数据?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题