集群组件root用户启动切换到普通用户启动步骤

1. 创建用户

useradd chun passwd chun

2. 给此用户配置免密登录

2.1 所有机器切换至chun用户后,执行ssh-keygen –t rsa 2.2 配置免密,在所有机器上执行cat ~/.ssh/id_rsa.pub | ssh chun@nna ‘cat ~/.ssh/authorized_keys’ 命令,将公钥拷贝到nna服务器上,然后将nna上的authorized_keys文件覆盖到集群其他机器。

3. 修改nna配置文件

增加用户和用户组设置

3.1修改zookeeper配置文件

修改zookeeper/conf/下的zoo.cfg文件,增加如下配置

#设置新的ZooKeeper用户和组

zookeeper.user=chun

zookeeper.group=chun

3.2 修改hadoop配置文件

修改$HADOOP_HOME/ect/Hadoop/目录下的: hadoop-env.sh 、yarn-env.sh、 mapred-env.sh文件 增加如下配置,如果有则将root修改为chun

export HDFS_NAMENODE_USER=chun

export HDFS_DATANODE_USER=chun

export HDFS_SECONDARYNAMENODE_USER=chun

export HDFS_JOURNALNODE_USER=chun

export HDFS_ZKFC_USER=chun

export YARN_RESOURCEMANAGER_USER=chun

export YARN_NODEMANAGER_USER=chun

3.3修改HBase配置文件

修改$HBASE_HOME/conf/hbase-env.sh文件 增加如下配置,如果有则将root修改为chun

export HBASE_USER=chun

export HBASE_GROUP=chun

3.4修改spark配置文件

修改$SPARK_HOME/conf/spark-env.sh文件 增加如下配置,如果有则将root修改为chun

export SPARK_USER=chun

export SPARK_GROUP=chun

4. 将上述修改的配置文件分发到集群其他节点

clush –g all –copy xxxx –dest pwd

5. 修改文件权限为chun

执行chown –R chun:chunXXXXXX

其中XXXXXX包含:

hadoop、spark、hbase、zookeeper部署目录权限hdfs数据盘目录权限

6. 启动集群

1 先启动zk,zk集群节点执行zkServer.sh start 2 启动hdfs,./start-dfs.sh 3. 启动hbase,./start-hbase.sh 4. 启动spark,./start-all.sh(这里要进入spark目录,如果使用环境变量是走的hadoop的脚本)

7. 验证各集群是否正常

精彩链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: