hbc服务器(HBase 2.0 在时序数据存储方向的应用)
HBase 是基于 HDFS 存储的分布式 Nosql 数据库,具有易于线性拓展和高并发随机实时读写能力,目前已成为大部分公司基础存储架构中不可缺少的组成部分。作者:牛魔
1、HBase 生态介绍
HBase 是基于 HDFS 存储的分布式 Nosql 数据库,具有易于线性拓展和高并发随机实时读写能力,目前已成为大部分公司基础存储架构中不可缺少的组成部分。经过多年发展,HBase 生态也日益丰富,目前 HBase 主要生态包括以下几个方向:
1.1 时序数据:
OpenTSDB 是基于 HBase 的时序数据库,具有海量数据实时读写能力和聚合计算能力。多被应用在实时监控领域和对业务趋势的实时分析;
1.2 Cube 分析:
Kylin 是 HBase 生态中 Cube 分析的项目,将数据进行预计算后存储在 HBase 中,对用户提供 SQL 接口,可为用户提供亚秒级多维度分析;
1.3 SQL On HBase:
Phoenix 是 HBase 上的 SQL 组件,支持标准 SQL 和 JDBC API,用户可像使用关系型数据库的操作方式操作 HBase 数据。同时支持二级索引功能,大大提升查询速度;
1.4 时空数据:
GeoMesa 是基于 HBase 的时空数据组件,可提供大规模分布式地理空间数据查询和分析。
2、贝壳 HBase 的生态介绍
在贝壳已经有基于 Kylin 的实时分析引擎;基于 OpenTSDB 的集群监控信息存储;基于 Phoenix 的 SQL 组件,支持标准 SQL 语法,可通过 JDBC 方式连接进行操作,可建立索引对查询加速。
1)基于 Kylin 的实时分析服务(已建立完成)
2)基于 Opentsdb 的集群监控信息存储(已建立完成)
3)基于 Phoenix 的 SQL 组件(已建立完成)
4)基于 GeoMesa 的时空数据(暂未建设,需求收集中)
3、HBase 时序数据存储目前情况
从 2018 年 8 月份开始我们开始使用 OpenTSDB 来存储集群监控数据,目前已存储 Hadoop 和 HBase 集群 Metrics 数据以及集群各个节点基础信息数据。这套时序存储由 5 个节点的 HBase 集群和 3 个节点的 OpenTSDB 搭建而成,HBase 平均每秒处理 3W 请求,最大每秒处理 10W+ 请求。
4、HBase 2.0 新特性介绍
2018 年 8 月份我们开始对 HBase2.0 版本进行调研,希望能够使用更少的资源,获得更高的性能,通过一系列尝试最终仅使用原来一半的内存达到了预期效果。那么为什么 HBase2.0 能够使用更少资源获得更高的性能呢?这得益于 2.0 版本的一些新特性,现在我来为大家介绍一下:
4.1 AssignmentManager V2(AM V2)
AM 负责维护 Region 分配过程中的状态,AM V2 基于 Procedure V2 存储状态,去除了对 Region 分配过程对 zookeeper 的依赖,Region 状态直接通过心跳汇报给 Master,降低了 RIT 的出现概率。改特性默认开启;
4.2 Offheapping of Read/Write Path
将数据缓存和 memstore 放到堆外,堆内只存储一级缓存中的索引和 bloom filter 数据;减少了 GC 次数提升了稳定降低延迟;
4.3 In-Memory Compaction
在 HBase1.x 版本中,memstore 达到 flush 阀值时,直接进行 flush 将数据写到磁盘;引入该功能后,memstore 中数据会在内存中进行多次 compaction 后再 flush,减少了写磁盘次数并能减少写放大问题;
4.4 NettyRpcServer
使用 Netty 的高并发能力,大大提升了 HBaseRPC 的吞吐能力,降低了延迟。该特性默认开启;
4.5 Async Client
Async Client 利用异步 RPC 机制,大大高 Client 端请求并发量,扩大吞吐;
4.6 RS Group
通过给 RegionServer 分组,很好地实现了资源隔离,也可以按需分配不同性能机器进行数据存储,例如冷数据存在 HDD 磁盘 RS 上,温数据存在 SDD 和 HDD 混布 RS 上,热数据存在全 SSD RS 上;
4.7 Support for MOB
MOB 特性使得 HBase 支持存储小于 10MB 的中等媒体对象数据,相比原有直接存储大对象,其读写效率更高。
5、OpenTSDB 介绍
OpenTSDB 是一个基于 HBase 的可拓展时序数据读写服务,可通过 HTTP API 的方式对数据进行读写。我们使用的 OpenTSDB 版本是最新的 2.3.1,为了达到更好的读写性能,我们采用了读写分离的部署方案。接下来我给大家介绍一下值得注意的点和配置:
1)初始化表时,要对表进行预切分
默认初始化的表都只有一个分区,造成大量请求压到一个节点上造成宕机;
2)开启 uid 随机映射到 metrics,使得数据均匀分布到各 region 上:
1tsd.core.uid.random_metrics=true
3)开启 mate 数据实时创建追踪,以便使用 tag_values 函数获取 metric 指定 tag 值集合:
1tsd.core.meta.enable_realtime_uid=true
2tsd.core.meta.enable_tsuid_tracking=true
3tsd.core.meta.enable_realtime_ts=true
注意:开启该功能后,对 HBase 的访问量会激增。
4)设置 tag 允许字符,解决非字符问题:
1tsd.core.tag.allow_specialchars = \”, ;[]:/@\”
6、关键配置
6.1 HBase 相关配置
前面介绍了很多特性,有些是默认开启的,有些需要额外配置。我们主要使用了 Offheapping of Read/Write Path 和 In-Memory Compaction 两个特性,下面是相关的配置:
1)hbase-env.sh 文件内配置:
设置对外内存大小
1export HBASE_OFFHEAPSIZE=30G
regionserver JVM 参数设置,建议使用 G1 垃圾回收,可控制最长暂停时间
1export HBASE_REGIONSERVER_OPTS=\”$HBASE_REGIONSERVER_OPTS -XX:+UseG1GC -Xms30g -Xmx30g -XX:+UnlockExperimentalVMOptions -XX:MaxGCPauseMillis=100 -XX:-ResizePLAB -XX:+ParallelRefProcEnabled -XX:+AlwaysPreTouch -XX:G1HeapWastePercent=3 -XX:InitiatingHeapOccupancyPercent=35 -XX:G1MixedGCLiveThresholdPercent=85 -XX:G1NewSizePercent=4 -XX:G1MaxNewSizePercent=10\”
2)hbase-site.xml 文件配置
1
2
3 hbase.bucketcache.ioengine
4 offheap
5
6
7
8 hbase.bucketcache.size
9 17408
10 堆外缓存 (L2 Cache) 大小,单位 MB
11
12
13
14 hfile.block.cache.size
15 0.2
16 堆上缓存 (L1 Cache) 大小,占堆大小的 20%
17
18
19
20
21 hbase.regionserver.offheap.global.memstore.size
22 10240
23 堆外 memstore 大小,单位 MB
24
3)In-Memory Compaction 配置
有两种设置方式:
全局开启
在 hbase-site.xml 添加如下配置:
1
2 hbase.hregion.compacting.memstore.type
3 NONE|BASIC|EAGER|ADAPTIVE
4
5
注意:使用这种配置,会导致原有其他表的 region 无法使用,建议采用第二种配置
针对表开启
1create ’’,
2{NAME => ’’, IN_MEMORY_COMPACTION =>’’}
6.2 In-Memory Compaction 策略介绍
1)BASIC 策略
一个低开销方案,它将 pipline 中的所有 segment 索引合并到一个平坦索引中。他不会清理冗余,以避免 cell 数据拷贝
2)EAGER 策略
一个高成本 / 高回报方案,即可以平衡索引也可以消除冗余,并清理多余版本,需要拷贝数据会有额外开销,适用于写入较多场景
3)ADAPTIVE 策略
首先对待合并 segment 进行评估,方法是在已经统计过不重复 key 个数的 segment 中,找出 cell 个数最多的一个,然后用这个 segment 的 numUniqueKeys/getCellsCount 得到一个比例,如果比例小于设定的阀值则使用 EAGER 策略,否则使用 BASIC 策略
7、OpenTSDB 相关配置
在 opentsdb.conf 文件中配置
1 tsd.core.tag.allow_specialchars = \”, ;[]:/@\”
2 tsd.core.uid.random_metrics=true
3 tsd.core.meta.enable_realtime_uid=true
4 tsd.core.meta.enable_tsuid_tracking=true
5 tsd.core.meta.enable_realtime_ts=true
8 经验总结
经过一段时间的使用我们遇到过一些问题,在这里和大家分享下:
1)HBase 2.0 默认使用 NettyRpcServer,会由于客户端(OpenTSDB)处理结果速度慢造成 Netty buffer 堆积 ,导致 RegionServer 频繁 FullGC,然后宕机;
解决方案:引入社区 Patch,对缓冲区大小进行限制,缓冲区默认大小 2GB,我们最终设置 6GB
2)Hbase 2.0 中 hbck 只能进行检查不能进行修复,一旦出现 RIT 问题不易解决;
解决方案:出现 RIT 问题可通过以下两种方式进行解决:
在 hbase shell 中使用 assign 命令重新分配指定 region,如果无效采用第二种方式;
使用 hbck2 进行修复,有些修复后仍未解决时重启 Master,问题得到解决。
3)当 RegionServer 重启后,集群不会自动 balance,手动调用 balancer 命令也无效,即使其他节点每秒请求几万的情况下也不会进行 balance,且日志无异常。
解决方案:切换 HMaster 节点,再手动调用 balancer 命令。
作者介绍:牛魔,贝壳找房 HBase 负责人。
本文转载自公众号贝壳产品技术
原文:https://mp.weixin.qq.com/s/jNqT2rwd6yFl9A4yLACcZQ
发布于:2022-12-19,除非注明,否则均为
原创文章,转载请注明出处。
发表评论