kubernetes上的Spark

jm2pwxwz  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(261)

我在kubernetes中配置了如下spark。我通过这个链接设置了-https://testdriven.io/blog/deploying-spark-on-kubernetes/

在此配置中是否可以在群集模式下运行作业?还是只能用于地方发展?

g6baxovj

g6baxovj1#

是的,你可以。并不是所有的特性都存在,因为这是实验性的,更多的细节可以在这里看到完整的配置和支持:在kubernetes上运行spark
群集模式

To launch Spark Pi in cluster mode:

$ ./bin/spark-submit \
    --master k8s://https://<k8s-apiserver-host>:<k8s-apiserver-port> \
    --deploy-mode cluster \
    --name spark-pi \
    --class org.apache.spark.examples.SparkPi \
    --conf spark.executor.instances=5 \
    --conf spark.kubernetes.container.image=<spark-image> \
    local:///path/to/examples.jar

添加关于提交时如何使用和监控作业/应用程序的详细信息,并从以下内容开始:深入查看spark submit,您可以找到图表以及实际如何工作。同样值得用自定义图像检查此信息,但其流程类似于kubernetes spark作业

相关问题