hadoop群集超时重新启动

but5z9lq  于 2021-05-27  发布在  Hadoop
关注(0)|答案(0)|浏览(227)

我尝试使用ambari重新启动hadoop集群。
由于启动阶段超时,多个服务(Hive、Spark、Yarn等)被终止。
标准:
由于等待2700秒后超时,python脚本已被终止
标准试验(2700-45分钟后,仅6/22用户接受治疗):

2019-12-31 14:11:16,113 - Group['spark'] {'ignore_failures': False}
2019-12-31 14:11:16,113 - Group['hadoop'] {'ignore_failures': False}
2019-12-31 14:11:16,113 - Group['bigr'] {'ignore_failures': False}
2019-12-31 14:11:16,114 - Group['users'] {'ignore_failures': False}
2019-12-31 14:11:16,114 - Group['knox'] {'ignore_failures': False}
2019-12-31 14:11:16,114 - User['hive'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['hadoop']}
2019-12-31 14:24:24,671 - User['zookeeper'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['hadoop']}
2019-12-31 14:30:43,580 - User['oozie'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['users']}
2019-12-31 14:38:52,952 - User['ams'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['hadoop']}
2019-12-31 14:45:43,558 - User['tauser'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['hadoop']}
2019-12-31 14:54:11,647 - User['dsmuser'] {'gid': 'hadoop', 'ignore_failures': False, 'groups': ['hadoop']}

我增加了 agent.package.install.task.timeout 中的属性 /etc/ambari-server/conf/ambari.properties 文件。
我不明白为什么 User check/creation 步骤太长(每个用户大约7-8分钟)!
我认为相应的代码在这里:python/resource\u management/core/providers/accounts.py
有什么线索吗?
提前感谢您的帮助;—)
(hdp版本:biginsights-4.1.0.0)

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题