启动

zz2j4svz  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(270)

我已经创建了一个服务来启动和停止与spark集群相关联的hdfs。
服务:

[Unit]
Description=Hdfs service
[Service]
Type=simple
WorkingDirectory=/home/hduser
ExecStart=/opt/hadoop-2.6.4/sbin/start-service-hdfs.sh
ExecStop=/opt/hadoop-2.6.4/sbin/stop-service-hdfs.sh
[Install]
WantedBy=multi-user.target

问题是当我启动服务时,它会在刚启动时启动和停止!!:)我想问题是服务的类型,我真的不知道该选择什么类型。。。
谢谢您。
致以最诚挚的问候

bcs8qyzn

bcs8qyzn1#

你的配置中有一些问题,这就是为什么它不工作的原因。
我在跑步 hadoop 2.7.3, hive 2.1.1, ubuntu 16.04 低于 hadoop 用户 HADOOP_HOME/home/hadoop/envs/dwh/hadoop/ ```
[Unit]
Description=Hadoop DFS namenode and datanode
After=syslog.target network.target remote-fs.target nss-lookup.target network-online.target
Requires=network-online.target

[Service]
User=hadoop
Group=hadoop
Type=forking
ExecStart=/home/hadoop/envs/dwh/hadoop/sbin/start-dfs.sh
ExecStop=/home/hadoop/envs/dwh/hadoop/sbin/stop-dfs.sh
WorkingDirectory=/home/hadoop/envs/dwh
Environment=JAVA_HOME=/usr/lib/jvm/java-8-oracle
Environment=HADOOP_HOME=/home/hadoop/envs/dwh/hadoop
TimeoutStartSec=2min
Restart=on-failure
PIDFile=/tmp/hadoop-hadoop-namenode.pid

[Install]
WantedBy=multi-user.target

检查表:
已设置用户和用户组
服务类型为 `fork` pid文件已设置,这是 `start-dfs.sh` 创建
环境变量正确

相关问题