从scala中其他两个数据集的特定列创建新的数据集

l3zydbqr  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(488)

我有以下两个不同模式的数据集。

case class schema1(a: Double, b: Double) -> dataset1
case class schema2(c: Double, d: Double, e: Double, f: Double) -> dataset2

我想用以下架构创建另一个数据集:

case class schema3(c: Double,  b: Double) -> dataset3

i、 e schema3数据集包含来自schema 2数据集的第1列c和来自schema 1数据集的第2列b。
如何利用数据集2和1中c列和b列的数据,基于schema3创建第三个数据集。
或者更简单地说,我必须创建一个第三个数据集,从第一个数据集中获取一列,从第二个数据集中获取另一列,并将其Map到上面定义的第三个模式。
请帮忙。

7vhp5slm

7vhp5slm1#

使用 monotonically_increasing_id & row_numer 在两个数据集中添加唯一的id值&使用 id 列以及两个数据集中的必需列,最后从结果数据集中删除id。
请检查下面的代码。

scala> case class schema1(a: Double, b: Double)
defined class schema1

scala> case class schema2(c: Double, d: Double, e: Double, f: Double)
defined class schema2

scala> import org.apache.spark.sql.expressions._
import org.apache.spark.sql.expressions._

scala> val sa = Seq(schema1(11,12),schema1(22,23)).toDF.withColumn("id",monotonically_increasing_id).withColumn("id",row_number().over(Window.orderBy("id")))
sa: org.apache.spark.sql.DataFrame = [a: double, b: double ... 1 more field]

scala> val sb = Seq(schema2(22,23,24,25),schema2(32,33,34,35),schema2(132,133,134,135)).toDF.withColumn("id",monotonically_increasing_id).withColumn("id",row_number().over(Window.orderBy("id")))
sb: org.apache.spark.sql.DataFrame = [c: double, d: double ... 3 more fields]

scala> sa.show(false)
+----+----+---+
|a   |b   |id |
+----+----+---+
|11.0|12.0|0  |
|22.0|23.0|1  |
+----+----+---+

scala> sb.show(false)
+-----+-----+-----+-----+---+
|c    |d    |e    |f    |id |
+-----+-----+-----+-----+---+
|22.0 |23.0 |24.0 |25.0 |0  |
|32.0 |33.0 |34.0 |35.0 |1  |
|132.0|133.0|134.0|135.0|2  |
+-----+-----+-----+-----+---+

scala> sb.select("c","id").join(sa.select("b","id"),Seq("id"),"full").drop("id").show(false)
+-----+----+
|c    |b   |
+-----+----+
|22.0 |12.0|
|32.0 |23.0|
|132.0|null|
+-----+----+

相关问题