如何使用spark rdd获得以下列表?

i7uq4tfw  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(366)

列表(1,2,3,4..100)==>列表((1,2),(2,3),(3,4)…(100101))==>列表(3,5,7,….201)
scala>x.map(x=>x,x+1).map(x=>x.。\u 1+x.。\u 2):26:错误:方法map的参数(2)太多:(f:int=>b)(隐式bf:scala.collection.generic.canbuildfrom[list[int],b,that])x.map(x=>x,x+1).map(x=>x.。\u 1+x.。\u 2)
我正在尝试将1转换为100个值,但出现上述错误。代码有任何问题吗?

nvbavucw

nvbavucw1#

Map函数的返回不正确。
试试这个:

input.map(x => (x,x+1)).map(x => x._1 + x._2)

尽管如此,当您可以在这样的一个函数中完成时,我不认为需要两个Map函数:

input.map(x => x + x + 1)

上面的表达式也会给出相同的结果。

相关问题