如何在spark中使用ascii函数

ecfsfe2w  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(585)

我需要帮助使用scala使用spark函数ascii(sparksql字符串函数)

import org.apache.spark.sql.SparkSession
import spark.implicits._
import org.apache.spark.sql.functions

val a = sc.parallelize(Array("Santosh","Adithya"))
select ascii('Santosh')

我需要santosh的ascii值和rdda的ascii值

yr9zkbsy

yr9zkbsy1#

ascii是spark sql api的一部分,只能用于Dataframe/数据集。
使用将rdd转换为数据集,然后使用ascii函数

import spark.implicits._
val a = sc.parallelize(Array("Santosh","Adithya"))

case class Person(val fullName: String)
val ds = a.map(Person).toDS.selectExpr("ascii(fullName)")
ds.show

相关问题