我想使用yarn客户端在google云上运行hadoop中的jar。
我在hadoop的主节点中使用这个命令
spark-submit --class find --master yarn-client find.jar
但它返回这个错误
15/06/17 10:11:06 INFO client.RMProxy: Connecting to ResourceManager at hadoop-m-on8g/10.240.180.15:8032
15/06/17 10:11:07 INFO ipc.Client: Retrying connect to server: hadoop-m-on8g/10.240.180.15:8032. Already tried 0
time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
有什么问题?如果有用的话,这是myyarn-site.xml
<?xml version="1.0" ?>
<!--
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/yarn-logs/</value>
<description>
The remote path, on the default FS, to store logs.
</description>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop-m-on8g</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>5999</value>
<description>
1条答案
按热度按时间m528fe3b1#
在你的情况下,看起来像Yarn资源经理可能是不健康的原因不明;您可以尝试用以下方法固定Yarn:
但是,看起来您正在使用单击部署解决方案;click to deploy的spark+hadoop2部署目前实际上不支持spark-on-yarn,原因是一些bug和内存配置不足。如果你只是试着用它来运行,你通常会遇到这样的事情
--master yarn-client
开箱即用:支持良好的部署方式是在google计算引擎上部署一个集群,配置hadoop2和spark以便能够在yarn上运行,就是使用bdutil。你会跑得像:
与
spark_on_yarn_env.sh
spark应默认为yarn-client
,但您始终可以重新指定--master yarn-client
如果你愿意的话。您可以在中看到有关可用标志的更详细说明bdutil
与./bdutil --help
. 以下是我上面包含的标志的帮助条目: