Hive调优--存储和压缩方式

压缩方式

Hive压缩方式:     概述:         压缩方式就类似于windows的压缩包, 可以降低传输, 提高磁盘利用率.     区分压缩协议好坏的参考维度:         1. 压缩比, 即: 压缩后文件大小.         2. 解压速度, 即: 读的速度.         3. 压缩速度, 即: 写的速度.     推荐使用:         GZIP:       压缩后文件相对较小, 压缩 和 解压速度相对较慢.         Snappy:     压缩后文件相对大一点, 压缩 和 解压速度非常快.     问题: 建表的时候, 如何指定压缩方式呢?     答案: tblproperties('com.precess'='snappy');

 存储方式

2. Hive表存储方式     概述:         分为 行存储 和 列存储两种.     具体划分:         行存储: TextFile(默认), SequenceFile         列存储: ORC(推荐), Parquet             行存储 和 列存储的区别?         行存储:             优点:  select * 效率高.             缺点:  select 列 效率低,  每列数据类型不一致, 密集度较低, 占用资源较多(CPU, 磁盘, 内存)         列存储:             优点: select 列 效率高,  每列数据类型一致, 密集度较高, 占用资源较少(CPU, 磁盘, 内存)             缺点: select * 效率低.     结论:         以后建表, 不知道具体如何选择的时候, 推荐: orc(列存储) + snappy(压缩协议)

 代码演示

1. 开启hive的压缩方式.

--开启hive支持中间结果的压缩方案

set hive.exec.compress.intermediate=true ;

--开启hive支持最终结果压缩

set hive.exec.compress.output=true;

--开启MR的mapper端压缩操作

set mapreduce.map.output.compress=true;

--设置mapper端压缩的方案

set mapreduce.map.output.compress.codec= org.apache.hadoop.io.compress.SnappyCodec;

-- 开启MR的reduce端的压缩方案

set mapreduce.output.fileoutputformat.compress=true;

-- 设置reduce端压缩的方案

set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec;

--设置reduce的压缩类型

set mapreduce.output.fileoutputformat.compress.type=BLOCK;

2.切库.

use dy;

show tables;

3. 建表: 默认压缩协议(无) + 默认的存储方式(textfile)

drop table log_text;

create table log_text (

track_time string,

url string,

session_id string,

referer string,

ip string,

end_user_id string,

city_id string

)

row format delimited fields terminated by '\t'

stored as textfile ; -- 该行可以省略不写, 默认就是: textfile(行存储)

4. 给上述的 log_text表上传数据, 然后查看结果.

select * from log_text; -- 10W条数据, 18.13 MB, 而且我们可以直接在HDFS中查看文件内容.

演示: 列存储

1.建表: 列存储(Orc) + Orc自带的压缩协议(Zlib)

drop table log_orc;

create table log_orc (

track_time string,

url string,

session_id string,

referer string,

ip string,

end_user_id string,

city_id string

)

row format delimited fields terminated by '\t'

stored as orc ; -- orc(列存储)

2.给上述的 log_orc表添加数据.

列存储方式的表, 不支持load data直接加载数据, 只能 insert into的方式插入.

insert into table log_orc select * from log_text;

3.然后查看结果.

select * from log_orc; -- 10W条数据, 2.78 MB, 我们不可以直接在HDFS中查看文件内容.

演示: 列存储orc + 默认压缩协议(zlib)

1.建表

create table log_orc_zlib (

track_time string,

url string,

session_id string,

referer string,

ip string,

end_user_id string,

city_id string

)

row format delimited fields terminated by '\t'

stored as orc tblproperties('orc.compress'='zlib'); -- orc(列存储) + zlib协议(默认的)

2. 插数据.

列存储方式的表, 不支持load data直接加载数据, 只能 insert into的方式插入.

insert into table log_orc_zlib select * from log_text;

3. 查看结果.   文件大小, 数据条数

select * from log_orc_zlib; -- 10W条数据, 2.78 MB, 我们不可以直接在HDFS中查看文件内容.

演示: 列存储orc + 指定压缩协议: snappy

1. 建表.

drop table log_orc_snappy;

create table log_orc_snappy (

track_time string,

url string,

session_id string,

referer string,

ip string,

end_user_id string,

city_id string

)

row format delimited fields terminated by '\t'

stored as orc tblproperties('orc.compress'='snappy'); -- orc(列存储) + snappy协议

2. 插数据.

列存储方式的表, 不支持load data直接加载数据, 只能 insert into的方式插入.

insert into table log_orc_snappy select * from log_text;

3. 查看结果.   文件大小, 数据条数.

select * from log_orc_snappy; -- 10W条数据, 3.75 MB, 我们不可以直接在HDFS中查看文件内容.

Hive调优--Fetch抓取

核心点:     在执行HiveSQL的时候, 能不转MR, 就不转MR. 设置方式:     set hive.fetch.task.conversion=fetch抓取的模式; Fetch抓取模式介绍:     more:       默认的, 全表扫描, 查询指定的列, limit分页查询, 简单查询不走MR, 其它的要转MR任务.     minimal:    全表扫描, 查询指定的列, limit分页查询不走MR, 其它的要转MR任务.     none:       所有的HiveSQL, 底层都要转MR.

Hive调优--本地模式

核心点:     如果HiveSQL必须要转成MR任务来执行, 则尽量在本机(本地)直接执行, 而不是交由Yarn来调度执行, 针对于数据量比较小的需求, 可以提高效率.

相关设置:

--开启本地mr

set hive.exec.mode.local.auto=true;

--设置local mr的最大输入数据量,当输入数据量小于这个值时采用local mr的方式,默认为134217728,即128M

set hive.exec.mode.local.auto.inputbytes.max=134217728;

--设置local mr的最大输入文件个数,当输入文件个数小于这个值时采用local mr的方式,默认为4

set hive.exec.mode.local.auto.input.files.max=4;

Hive调优--join优化

小表join大表:     开启Map段的join, 在内存中完成处理, 避免把join的动作交给ReduceTask段来处理, 出现数据倾斜的情况.     参考如下配置, 即: 设置map端join         set hive.auto.convert.join = true;              -- 默认为true  开启mapJoin支持         set hive.mapjoin.smalltable.filesize= 25000000; --设置 小表的最大的数据量  20多M 大表join大表:     思路1: 空key过滤, 降低处理的数据量.     思路2: 空key转换, 必须大量的null值, 提高数据的处理数据.

Hive调优--SQL优化

A. 列裁剪.     能写 select 列1, 列2... 就不要写 select * B. 分区裁剪     编写SQL的时候, 能使用分区条件, 建立一定要写分区字段. C. 开启负载均衡.     如果key分布不均, 就可能导致数据倾斜的问题(Group by数据倾斜), 可以通过 开启负载均衡解决.     开启负载均衡之后, 如果遇到了GroupBy数据倾斜问题, 程序的底层会开启两个MR任务,     第1个MR负责将(发生数据倾斜的)数据随机打散, 交由不同的ReduceTask任务来处理, 获取结果.     第2个MR会将 第1个MR的结果当做数据源来处理, 进行最终的合并动作, 获取最终结果.     开启负载均衡的代码如下:         set hive.groupby.skewindata=true; D.关于去重统计的问题.     如果数据量相对较小, 可以直接写: select count(distinct id列) from 表名; 去重统计, 底层会转成1个MR任务.     如果数据量相对较大, 上述的SQL语句, 可能会执行失败, 就可以通过 group by + count的思路来解决, 具体如下:         select count(id列) from (select id from 表名 group by id) t1; 底层会转2个MR任务. E.关于笛卡尔积.     实际开发中, 尽量避免出现笛卡尔积的情况, 可以节约资源, 提高查询效率.     例如:         1. 写join连接的时候, 别忘记写关联条件, 且关联条件别写错.         2. 关联条件尽量写到on中, 而不是where中, 即: 尽量使用显式连接, 而不是隐式内连接.         3. 如果join的时候, 关联字段不清楚, 记得找 业务人员, 需求方, 数据库管理员对接.

Hive调优--动态分区

建议动态分区的时候, 关闭严格模式(默认开启), 严格模式要求: 动态分区的时候, 至少指定1个静态分区. 格式:     动态分区: partition(分区字段)     静态分区: partition(分区字段=值)

重点参数:

set hive.exec.dynamic.partition.mode=nonstrict; -- 开启非严格模式 默认为 strict(严格模式)

set hive.exec.dynamic.partition=true; -- 开启动态分区支持, 默认就是true

可选参数:

set hive.exec.max.dynamic.partitions=1000; -- 在所有执行MR的节点上,最大一共可以创建多少个动态分区。

set hive.exec.max.dynamic.partitions.pernode=100; -- 每个执行MR的节点上,最大可以创建多少个动态分区

set hive.exec.max.created.files=100000; -- 整个MR Job中,最大可以创建多少个HDFS文件

Hive调优--并行度和并行执行机制

并行度解释:     即: 根据业务要求, 增大或者减少MapTask 和 ReduceTask的任务数.     例如: 大量的小文件, 就会有大量的Block块, 就有大量的MapTask任务, 针对于这种情况: 我们可以使用归档技术, 把多个小文件合并成1个大文件, 降低MapTask任务数.     例如: 1个Block块 = 1个MapTask任务, 但是业务逻辑较复杂, 1个MapTask处理速度肯定较慢, 可以增大MapTask任务数.     例如: 1个ReduceTask任务 = 1个最终的结果文件, 增大或者减少ReduceTask任务数, 可以调整最终落盘到磁盘上的结果文件数. 并行执行:     默认Hive同一时间只能执行1个阶段, 如果多个阶段之间的依赖度比较低, 就可以开启并行执行, 让多个阶段同时执行, 降低MR job任务的执行时间.

set hive.exec.parallel=true; -- 打开任务并行执行 默认false

set hive.exec.parallel.thread.number=16; -- 同一个sql允许最大并行度,默认为8。

Hive调优--严格模式

核心点:     禁用低效的SQL. 设置方式:     set hive.mapred.mode=strict | nonstrict; 细节:     1. 这个严格模式是禁用低效的SQL, 和动态分区的严格模式没有任何关系.     2. 严格模式是禁用低效的SQL, 例如, 如下的SQL是禁止执行的:         A. 分区表, 查询时, 没有写分区字段.         B. order by全局排序时, 没有写limit         C. 禁用笛卡尔积.

Hive调优--JVM重用

核心点:     当MR任务执行结束后, Yarn创建的Container资源容器不会立即销毁, 而是可以重复使用. 原因:     如果遇到大量生命周期短的MR任务时, 频繁的创建和销毁Container资源容器是非常消耗资源的.

Hive调优--推测执行

核心点:     类似于木桶效应(装多少水取决于最短的哪个木板), job任务执行多长时间, 取决于执行最慢的哪个任务.     针对于这种情况, 可以基于哪些"拖后腿"(执行速度过于慢)的任务, 可以搞1个它的备份任务, 让这个备份任务,     和它处理同一份数据, 谁先执行完毕, 就将其结果作为最终结果. 建议:     默认是开启的, 建议关闭, 具体: 看需求

Hive调优--explain执行计划

格式:     explain HiveSQL语句 作用:     可以查看HiveSQL语句的执行计划, 即: 把该SQL分成了几个阶段来执行, 阶段越少, 相对执行速度越快.

Hive调优--总结

Hive调优总结:     1. 改硬件.     2. 开启或者增大某些设置(配置).      负载均衡, 严格模式(禁用低效SQL), 动态分区数...     3. 关闭或者减小某些设置(配置).      严格模式(动态分区), 推测执行...     4. 减少IO传输.                   Input(输入)/Output(输出),  列存储orc, 压缩协议snappy, join优化

相关链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: