目录

引言

实验目的及准备

实验步骤

引言

Hadoop生态的搭建有本地模式、伪分布模式、集群模式(3台机器)三种安装模式,本篇文章将详细介绍Hadoop3.3的伪分布安装模式。

实验目的及准备

一、完成Hadoop3.3伪分布安装

二、在Linux中配置jdk1.8环境变量

三、配置主机的免密钥登录

准备:MobaXterm、Centos7系统、jdk-8u112-linux-x64.tar.gz、Hadoop3.3

实验步骤

一、启动虚拟机master节点,连接至mobaXterm的远程终端:

二、上传Hadoop3.3.2以及jdk安装包至主节点的/home路径下(该安装包在CSDN中都可以搜寻到,作者无法重复上传):

三、解压缩Hadoop以及jdk的安装包至/opt目录下:

cd /home

tar -zxvf jdk-8u112-linux-x64.tar.gz -C /opt/

tar -zxvf hadoop-3.3.2.tar -C /opt/

四、解压完成后,配置JDK环境变量并进行测试:

vi /etc/profile

#添加以下内容后保存退出:

export JAVA_HOME=/opt/jdk1.8.0_112 export JRE_HOME=/opt/jdk1.8.0_112/jre

export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

#生效:

source /etc/profile

输入以下命令进行jdk安装成功的测试,出现1.8.0的jdk版本号即为安装成功:

java -version

五、配置master节点并完成伪分布安装(共配置六个文件):

1.配置Hadoop-env.sh

cd /opt/hadoop-3.3.2/etc/hadoop

vi hadoop-env.sh

修改 JAVA_HOME 后保存退出:

2.配置core-site.xml

配置该文件,指定HDFS的namenode地址,value值是主机名加端口号,该实验中主机使用master节点的ip地址,请注意修改:

cd /opt/hadoop-3.3.2/etc/hadoop/

vi core-site.xml

fs.default.name

hdfs://10.244.1.3:9000

fs.defaultFS

hdfs://10.244.1.3:9000

hadoop.tmp.dir

/home/hadooptmp

截图如下:

3.配置hdfs-site.xml:

配置该文件,指定HDFS保存数据的副本数量,伪分布模式下只有一个节点,所以此处为:1

cd /opt/hadoop-3.3.2/etc/hadoop/

vi hdfs-site.xml

dfs.replication

1

dfs.name.dir

/home/hadoopname

dfs.data.dir

/home/hadoopdata

截图如下:

4.配置mapred-site.xml

cd /opt/hadoop-3.3.2/etc/hadoop/

vi mapred-site.xml

mapreduce.framework.name

yarn

截图如下:

5.配置yarn-site.xml文件:

添加两个属性,第一个告诉nodemanager获取数据的方式为:shuffle;第二个告诉resourcemanager安装的主机(hostname)。

cd /opt/hadoop-3.3.2/etc/hadoop/

vi yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.resourcemanager.hostname

master

截图如下:

6.配置etc/profile文件:

cd /opt/hadoop-3.3.2/etc/hadoop/

vi /etc/profile

export HADOOP_HOME=/opt/hadoop-3.3.2

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile

截图如下:

六、配置主机的免密钥登录

配置本地免密钥登录:

cd /root

#如果本机没有登录过其他机器时,本地是没有/root/.ssh 文件夹的,只需要:ssh master 登录一次,就会自动创建了。

cd .ssh

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys

#测试免输入密码:

ssh master

截图如下:

七、初始化Hadoop

初始化之前,cd /opt/hadoop-3.3.2/sbin/,进入 sbin 目录,在 start-dfs.sh,stop-dfs.sh, start-yarn.sh,stop-yarn.sh 四个文件顶部添加参数,之后就可以使用 root 账号登陆 hdfs 和 yarn 了。

vim start-dfs.sh 和 vim stop-dfs.sh

#添加以下内容

HDFS_DATANODE_USER=root

HADOOP_SECURE_DN_USER=hdfs

HDFS_NAMENODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

在start-dfs.sh以及stop-dfs.sh两个文件顶部添加如下参数:

同理,在start-yarn.sh以及stop-yarn.sh两个文件顶部添加如下参数:

vim start-yarn.sh 和 vim stop-yarn.sh

#添加以下内容

YARN_RESOURCEMANAGER_USER=root

HADOOP_SECURE_DN_USER=yarn

YARN_NODEMANAGER_USER=root

截图如下:

接下来开始初始化:

先格式化:在/opt/hadoop-3.3.2/etc/hadoop/ 路径下输入命令

cd /opt/hadoop-3.3.2/etc/hadoop/ hadoop namenode -format

输入后截图如下:

八、启动Hadoop并进行测试

start-dfs.sh

start-yarn.sh

启动成功截图如下:

测试相关HDFS命令:

列出HDFS目录下所有的文件

hadoop fs -ls /

在HDFS目录上新建一个test文件夹:

hadoop fs -mkdir /test

再次列出HDFS目录下所有文件

hadoop fs -ls /

截图如下:

登录namenode的HTTP前端web网页UI(port:9870),查看该网页前,请关闭防火墙(systemctl stop firewalld)

以上就是Hadoop3.3的伪分布安装搭建以及测试流程。

参考文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: