spark.sql.shuffle.partitions -默认值

mwyxok5s  于 6个月前  发布在  Apache
关注(0)|答案(1)|浏览(85)

根据文档https://cloud.google.com/dataproc/docs/support/spark-job-tuning#:text = spark. -,sql.,less%20than%20100%20vCPUs%20total.,spark.sql.shuffle.partitions的默认值为200。
每个工作节点级别或整个群集级别的默认值是200吗?例如:如果我们有1个驱动器和5个工作节点,默认值是200还是200*5个工作节点=1000

slmsl1lt

slmsl1lt1#

spark.sql.shuffle.partitions(默认值为200)位于群集级别,与工作进程的数量无关。

相关问题