加入收藏 | 设为首页 | 会员中心 | 我要投稿 核心网 (https://www.hxwgxz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

Hive实践分享之存储和压缩的坑

发布时间:2018-12-20 03:01:19 所属栏目:教程 来源:科多兽兽
导读:在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑,本文通过科多大数据的武老师整理,分享给大家。 大家都知道,由于集群资源有限,我们一般都会针对数据文件的「存储结构」和「压缩形式」进行配置优化。

在学习大数据技术的过程中,HIVE是非常重要的技术之一,但我们在项目上经常会遇到一些存储和压缩的坑,本文通过科多大数据的武老师整理,分享给大家。

大家都知道,由于集群资源有限,,我们一般都会针对数据文件的「存储结构」和「压缩形式」进行配置优化。在我实际查看以后,发现集群的文件存储格式为Parquet,一种列式存储引擎,类似的还有ORC。而文件的压缩形式为Snappy。具体的操作形式如下:

Hive实践分享之存储和压缩的坑

① 创建Parquet结构的表(Hive 0.13 and later):

  1. CREATE TABLE CRM.DEMO(A INT) STORED AS PARQUET ; 

② 确认表的文件存储格式:

  1. desc formatted crm.demo; 

结果输出如下

  1. # Storage Information              
  2.  
  3. SerDe Library:          org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe       
  4.  
  5. InputFormat:                 org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat      
  6.  
  7. OutputFormat:               org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat  

③ 创建Snappy压缩格式的Parquet结构的表(待考察):

  1. ALTER TABLE crm.demo SET TBLPROPERTIES ('parquet.compression'='SNAPPY') ; 

或,写入时

  1. SET parquet.compression=SNAPPY ; 

回到最初的问题,如果是按Snappy压缩的格式,这份用户行为数据没办法分析了,因此有两种办法去解决:

① 安装Snappy的解压工具

可自行百度,由于没有权限,所以这条路行不通;

② 更改数据的压缩格式可以

最初我试了一下更改Parquet格式表的压缩格式,但是没有用!因为我最后是需要将查询数据导出到本地文件系统,如下语句所示:

  1. insert overwrite local directory '/home/etl/tmp/data' 
  2. select * 
  3. from crm.demo 

所以,通过这样的形式得到的数据,压缩格式依然是. Snappy。因此,这里就需要配置Hive执行过程中的中间数据和最终数据的压缩格式。

如MapReduce的shuffle阶段对mapper产生的中间结果数据压缩:

  1. hive> set mapred.map.output.compression.codec;  
  2. mapred.map.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec 

如对最终生成的Hive表的数据压缩:

  1. hive> set mapred.output.compression.codec;  
  2. mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec 

这里,我们要设置结果表数据的压缩格式,语句如下:

  1. set mapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec; 

最终的结果就是 .gz 的压缩格式

  1. -rw-r--r-- 1 etl etl 342094 May 10 11:13 000000_0.gz 

最后,我们直接下载到电脑本地,直接解压就可以通过Excel分析用户行为路径数据了。

总结:从Hive应用层的角度来说,关于数据文件的「存储结构」和「压缩形式」,这两个点我们不需要关心,只是在导出数据的时候需要结合文件大小,以及数据类型去设置合适的压缩格式。不过从Hive底层维护的角度来说,涉及到各种各样的「存储结构」和「压缩形式」,都需要开发者去研究和调整,这样才能保证集群上的文件在「时间」和「空间」上相对平衡。

【编辑推荐】

  1. Netflix数据库架构变革:缩放时间序列的数据存储
  2. 数据存储之争:固态硬盘 vs. 机械硬盘
  3. Kubernetes 3种存储傻傻分不清楚!
  4. 关于私有云与存储风向的深度解读
  5. 杉岩与粤港澳大湾区金融创新研究院联合成立“智能存储实验室”
【责任编辑:武晓燕 TEL:(010)68476606】
点赞 0

(编辑:核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读