//Create a list with size 1000000 of random nos.
spark.sparkContext.parallelize(for (i <- 1 to 1000000) yield r.nextInt(1000000) )
.toDF // Convert to dataframe with single column 'value'
.sortWithinPartitions(col("value")) // Sort the partition in parallel i.e. similair to sortin data on each worker
.sort(col("value")) // Final sort on complete data set
.map(r=>r.getInt(0)).collectAsList().toSeq // Collecting the result in list
1条答案
按热度按时间mpbci0fu1#
你可以用
sortWithinPartitions
为每个分区并行排序数据的方法。每个工作者都有自己的分区数据。根据我对1000000个随机号码的经验。
sortWithinPartitions
性能提升2倍。