Hive安装
1.安装前提
保证集群已经安装hadoop以及mysql
2.上传安装包
将安装包上传到mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar /opt/software/
创建/opt/jar 文件夹 使用命令修改权限:
sudo chmod 777 /opt/jar/
将mysql-connector-java-5.1.37.jar 传到/opt/jar/
3.解压安装包
tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/
C:代表指定解压的目录
4.修改目录名称
到指定的路径
cd /opt/module
修改名称
mv apache-hive-3.1.2-bin hive3.1.2
5.配置环境变量
–1打开环境变量文件
.vim /etc/profile
–2.增加HIVE_HOME
#HIVE_HOME
export HIVE_HOME=/opt/module/hive3.1.2
export PATH=$PATH:$HIVE_HOME/bin
–3.使环境变量配置生效
source /etc/profile
–4.验证环境变量是否配置正确
输入:
echo $HIVE_HOME
若出现以下截图说明配置成功:
6.配置jar包
– 1. 将 mysql驱动包上传到$HIVE_HOME/lib
cp /opt/jar/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib
拷贝成功后:
– 2. 解决日志jar包冲突问题
mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar_bak
– 3.解决guava包版本冲突的问题(hadoop中的guava版本高,hive中的guava版本低)
mv $HIVE_HOME/lib/guava-19.0.jar $HIVE_HOME/lib/guava-19.0.jar_bak
拷贝hadoop的guava包到hive目录下:
cp $HADOOP_HOME/share/hadoop/common/lib/guava-27.0-jre.jar $HIVE_HOME/lib/
7.修改hive配置文件
打开hive-site.xml文件,修改以下内容
修改为自己的主机号或者ip
修改密码:
修改为对应的主机号:
完整的hive-site.xml内容如下:
将修改后的hive-site.xml放在/opt/module/hive3.1.2/conf下,如对应的权限不够,修改权限:
[root@hadoop105 hive3.1.2]# chmod 777 conf/
8.修改hadoop配置文件
–1. 切换目录
cd $HADOOP_HOME/etc/hadoop
–2. 编辑配置文件
vim core-site.xml
按上述步骤为进入后,增加以下内容
修改完成后,使用 xsync /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml 命令,将该配置文件分发到各个集群
可以看到另外两台主机也都配置完成
9.开启服务
–1. 在namenode节点上启动hdfs
[bck208@hadoop105 hadoop]$ start-dfs.sh
–2. 在resource manager节点上启动·yarn
[bck208@hadoop106 hadoop]$ jps
–3. 启动mysql
systemctl start mysqld
10.初始化hive元数据库
执行命令:
schematool -dbType mysql -initSchema
出现以下信息,说明执行成功:
查看数据库,hive数据库已经出现:
11.启动hive
重启hdfs和yarn服务后到hive目录下启动hive
精彩链接
发表评论