Hive安装

1.安装前提

保证集群已经安装hadoop以及mysql

2.上传安装包

将安装包上传到mysql-5.7.28-1.el7.x86_64.rpm-bundle.tar /opt/software/

创建/opt/jar 文件夹 使用命令修改权限:

sudo chmod 777 /opt/jar/

将mysql-connector-java-5.1.37.jar 传到/opt/jar/

3.解压安装包

tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/

C:代表指定解压的目录

4.修改目录名称

到指定的路径

cd /opt/module

修改名称

mv apache-hive-3.1.2-bin hive3.1.2

5.配置环境变量

–1打开环境变量文件

.vim /etc/profile

–2.增加HIVE_HOME

#HIVE_HOME

export HIVE_HOME=/opt/module/hive3.1.2

export PATH=$PATH:$HIVE_HOME/bin

–3.使环境变量配置生效

source /etc/profile

–4.验证环境变量是否配置正确

输入:

echo $HIVE_HOME

若出现以下截图说明配置成功:

6.配置jar包

– 1. 将 mysql驱动包上传到$HIVE_HOME/lib

cp /opt/jar/mysql-connector-java-5.1.37.jar $HIVE_HOME/lib

拷贝成功后:

– 2. 解决日志jar包冲突问题

mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar_bak

– 3.解决guava包版本冲突的问题(hadoop中的guava版本高,hive中的guava版本低)

mv $HIVE_HOME/lib/guava-19.0.jar $HIVE_HOME/lib/guava-19.0.jar_bak

拷贝hadoop的guava包到hive目录下:

cp $HADOOP_HOME/share/hadoop/common/lib/guava-27.0-jre.jar $HIVE_HOME/lib/

7.修改hive配置文件

打开hive-site.xml文件,修改以下内容

修改为自己的主机号或者ip

修改密码:

修改为对应的主机号:

完整的hive-site.xml内容如下:

javax.jdo.option.ConnectionURL

jdbc:mysql://hadoop105:3306/hive?createDatabaseIfNotExist=true&useSSL=false&useUnicode=true&characterEncoding=UTF-8

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

javax.jdo.option.ConnectionUserName

root

javax.jdo.option.ConnectionPassword

1234

hive.metastore.warehouse.dir

/user/hive/warehouse

hive.server2.thrift.bind.host

hadoop105

hive.server2.thrift.port

10000

hive.server2.enable.doAs

false

hive.server2.active.passive.ha.enable

true

将修改后的hive-site.xml放在/opt/module/hive3.1.2/conf下,如对应的权限不够,修改权限:

[root@hadoop105 hive3.1.2]# chmod 777 conf/

8.修改hadoop配置文件

–1. 切换目录

cd $HADOOP_HOME/etc/hadoop

–2. 编辑配置文件

vim core-site.xml

按上述步骤为进入后,增加以下内容

hadoop.proxyuser.bck208.hosts

*

hadoop.proxyuser.bck208.groups

*

修改完成后,使用 xsync /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml 命令,将该配置文件分发到各个集群

可以看到另外两台主机也都配置完成

9.开启服务

–1. 在namenode节点上启动hdfs

[bck208@hadoop105 hadoop]$ start-dfs.sh

–2. 在resource manager节点上启动·yarn

[bck208@hadoop106 hadoop]$ jps

–3. 启动mysql

systemctl start mysqld

10.初始化hive元数据库

执行命令:

schematool -dbType mysql -initSchema

出现以下信息,说明执行成功:

查看数据库,hive数据库已经出现:

11.启动hive

重启hdfs和yarn服务后到hive目录下启动hive

精彩链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: