一、HBase
HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。
1. 逻辑结构与物理存储结构
(1)逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。
每个Region下,“行”就成了store,列则变成了列族。
(2)但从HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个 multi-dimensional map。
StoreFile保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。
底层是存储一行的,rowkey - 列族 + 列名 + 时间戳 + 类型 + 值Value。
2. 数据模型
NameSpace:命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase 有两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,例如存储RegionServer信息的Meta表。 default 表是用户默认使用的命名空间。
Region:类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。
Row:HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。
Column:HBase 中的每个列都由 Column Family(列族)和 Column Qualifier(列限定符)进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。
TimeStamp:用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间。
Cell :由{rowkey, column Family:column Qualifier, time Stamp} 唯一确定的单元。cell 中的数据是没有类型的,全部是字节码形式存贮。
3. 基本架构
Zookeeper:HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。
Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下: 对于数据的操作:get, put, delete;
对于Region 的操作:splitRegion、compactRegion。
Master:Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用是对于表的操作:create, delete, alter
对于RegionServer 的操作:分配regions 到每个RegionServer,监控每个RegionServer的状态,负载均衡和故障转移。
HDFS:为 HBase 提供最终的底层数据存储服务,同时为HBase 提供高可用的支持。
4. HBase Shell 操作
在解压完HBase后,配置好配置文件,然后启动zk,hadoop,然后启动hbase,最后进入客户端bin/hbase shell
4.1 DDL操作
- 创建表create
hbase(main):002:0> create 'student','info'
- 插入put数据到表
hbase(main):003:0> put 'student','1001','info:sex','male'
hbase(main):004:0> put 'student','1001','info:age','18'
- 扫描scan查看表数据
hbase(main):008:0> scan 'student' hbase(main):009:0> scan 'student',{STARTROW => '1001', STOPROW => '1001'}
hbase(main):010:0> scan 'student',{STARTROW => '1001'}
- 查看describe表结构
hbase(main):011:0> describe ‘student’
4.2 DML操作
- 更新指定字段的数据(put覆盖即可)
hbase(main):012:0> put 'student','1001','info:name','Nick'
hbase(main):013:0> put 'student','1001','info:age','100'
- 查看“指定行”或“指定列族:列”的数据
hbase(main):014:0> get 'student','1001'
hbase(main):015:0> get 'student','1001','info:name'
- 统计表数据行数
hbase(main):021:0> count 'student'
- 删除数据
删除某 rowkey 的全部数据:
hbase(main):016:0> deleteall 'student','1001'
删除某 rowkey 的某一列数据:
hbase(main):017:0> delete 'student','1002','info:sex'
- 清空表数据
hbase(main):018:0> truncate 'student'
清空以及删除表的操作顺序为先 disable,然后再truncate和delete。
- 删除表
hbase(main):019:0> disable 'student'
首先需要先让该表为 disable 状态:然后才能 drop 这个表:
hbase(main):020:0> drop 'student'
提示:如果直接 drop 表,会报错:ERROR: Table student is enabled. Disable it first.
11.变更表信息
将 info 列族中的数据存放 3 个版本:
hbase(main):022:0> alter 'student',{NAME=>'info',VERSIONS=>3}
hbase(main):022:0> get 'student','1001',{COLUMN=>'info:name',VERSIONS=>3}
5. HBase架构原理
1)StoreFile:实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。
2)MemStore:写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到HFile,每次刷写都会形成一个新的HFile。
3)WAL:由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。
总结:数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中排好序后,等到达刷写时机才会刷写到HFile,每次刷写都会形成一个新的HFile。
6. 读写流程
(1)写流程
1) Client 先访问 zookeeper,获取要查询表的 hbase:meta表 位于的Region Server。
2) 再去访问对应meta表的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey, 查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
3) 与目标Region Server 进行通讯,将数据顺序写入(追加)到 WAL;
5) 将数据写入对应的 MemStore,数据会在 MemStore 进行排序;
6) 向客户端发送ack;
7) 等达到 MemStore 的刷写时机后,将数据Flush刷写到HFile。
刷写时间:memstroe大小到了,定时器时间到了,wal文件数量到了
(2)读流程
1)Client 先访问 zookeeper,获取要查询表的 hbase:meta表 位于的Region Server。
2) 再去访问对应meta表的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey, 查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
3) 与目标Region Server 进行通讯;
4) 分别在Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据
5)由于是分布式存储,所以要将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。
6) 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。
7) 将合并后的最终结果返回给客户端。
- StoreFile Compaction合并
由于memstore 每次刷写都会生成一个新的HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的HFile 中,因此查询时需要遍历所有的 HFile。为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。
Minor Compaction会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但不会清理过期和删除的数据。
Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉过期和删除的数据。
- Region Split拆分
默认情况下,每个Table起初只有一个Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。
7. JavaAPI操作HBase
导入HBase的客户端依赖
<dependency> |
获取 Configuration 配置对象,然后将connection和admin设置为静态变量后期调用。
// connection是DML的操作对象,来获取表table对象 |
close方法在最后调用
public static void close() { |
7.1 DDL的操作
// 判断表是否存在 |
7.2 DML的操作
// 插入数据 |
二、Hive
Hive:由 Facebook 开源用于解决海量结构化日志的数据统计工具。 基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类 SQL 查询功能。
1. Hive本质
Hive 本质:将 HQL 转化成 MapReduce 程序,避免了去写 MapReduce,减少开发人员的学习成本。
注意:由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive 中不建议对数据的改写,所有的数据都是在加载的时候确定好的。
(1) Hive 处理的数据存储在 HDFS
(2) Hive 分析数据底层的实现是 MapReduce
(3) 执行程序运行在 Yarn 上
2. 架构原理
1) 用户接口:Client就是一些命令行CLI(command-line interface)、JDBC/ODBC(jdbc 访问 hive)、WEBUI(浏览器访问 hive)
2)元数据Metastore:包括:表名、表所属的数据库(默认是 default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;
Hive表中的数据是HDFS上的文件,可是Hive怎么知道这些文件的内容都对应哪个字段,对应哪个分区呢?
默认存储在自带的 derby 数据库中,推荐使用 MySQL 存储Metastore
3)驱动器:Driver
(1)解析器(SQL Parser):将 SQL 字符串转换成抽象语法树 AST,这一步一般都用第三方工具库完成,比如 antlr;对 AST 进行语法分析,比如表是否存在、字段是否存在、SQL 语义是否有误。
(2)编译器(Physical Plan):将 AST 编译生成逻辑执行计划。
(3)优化器(Query Optimizer):对逻辑执行计划进行优化。
(4)执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。
对于 Hive 来说,就是 MR/Spark。
4)Hadoop使用 HDFS 进行存储,使用 MapReduce 进行计算。
3. Hive数据类型
Hive 数据类型 | Java 数据类型 | 长度 | 例子 |
---|---|---|---|
TINYINT | byte | 1byte 有符号整数 | 20 |
SMALINT | short | 2byte 有符号整数 | 20 |
INT | int | 4byte 有符号整数 | 20 |
BIGINT | long | 8byte 有符号整数 | 20 |
BOOLEAN | boolean | 布尔类型,true 或者 false | TRUE FALSE |
FLOAT | float | 单精度浮点数 | 3.14159 |
DOUBLE | double | 双精度浮点数 | 3.14159 |
STRING | string | 字符系列。可以指定字符集。可以使用单引号或者双 引号。 | ‘ now is the time ’ “for all good men” |
TIMESTAMP | 时间类型 | ||
BINARY | 字节数组 |
对于 Hive 的 String 类型相当于数据库的varchar 类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储 2GB 的字符数。
4. DDL操作
- 创建数据库
创建一个数据库,数据库在 HDFS 上的默认存储路径是/user/hive/warehouse/*.db。
- 显示数据库
hive> show databases;
显示数据库信息
desc database db_hive;
显示数据库详细信息,
desc database extended db_hive;
切换当前数据库
use db_hive;
删除数据库
drop database db_hive cascade;
创建表
create table 表名(字段1 类型, 字段2 类型, ……) row format delimited fields terminated by ‘\t’ location ‘/data’;
例如:分别创建部门和员工外部表,并向表中导入数据。
(1)上传数据到 HDFS
hive (default)> dfs -mkdir /student;
hive (default)> dfs -put /opt/module/datas/student.txt /student;
(2) 建表语句,创建外部表创建部门表
create external table if not exists emp( empno int, ename string, job string, mgr int, hiredate string, sal double, comm double, deptno int) row format delimited fields terminated by '\t';
create external table if not exists dept( deptno int, dname string, loc int) row format delimited fields terminated by '\t';
(3)增加列
hive (default)> alter table dept add columns(deptdesc string);
5. DML操作
- 数据导入
load data local inpath '/opt/module/hive/datas/student.txt' into table default.student;
dfs -put /opt/module/hive/data/student.txt /user/yangyifan/hive;
- 数据插入
insert into table student_par values(1,'wangwu'),(2,'zhaoliu');
- 创建表时通过Location指定加载数据路径
create external table if not exists student5( id int, name string) row format delimited fields terminated by '\t' location '/student;
- 查询
select * from student5;
HBase 与 Hive 的对比
- Hive
(1) 数据仓库
Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用HQL去管理查询。
(2) 用于数据分析、清洗
Hive 适用于离线的数据分析和清洗,延迟较高。
(3) 基于HDFS、MapReduce
Hive 存储的数据依旧在DataNode 上,编写的HQL 语句终将是转换为 MapReduce 代码执行。
- HBase
(1) 数据库
是一种面向列族存储的非关系型数据库。
(2) 用于存储结构化和非结构化的数据
适用于单表非关系型数据的存储,不适合做关联查询,类似 JOIN 等操作。
(3) 基于HDFS
数据持久化存储的体现形式是HFile,存放于 DataNode 中,被 ResionServer 以 region 的形式进行管理。
(4) 延迟较低,接入在线业务使用
面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速度。