注册
登录
5G
如何在Hbase中以大(1000万条记录)小(平均240字节)的记录大小来提高随机获取操作的性能?
返回
如何在Hbase中以大(1000万条记录)小(平均240字节)的记录大小来提高随机获取操作的性能?
作者:
逆转的风
发布时间:
2024-01-07 08:59:58 (4月前)
转自:
1G到
5G 跨度> 之后我得到320个/秒,0.08MB / s(缓存命中率为87%),但它仍远低于100万个测试套件的速度。 它有什么方法可以提高性能吗?谢谢。 锟斤拷
收藏
举报
2 条回复
0#
回复此人
子阳
|
2019-08-31 10-32
对于随机获取:
减小块大小,不超过64kb,32k应该是好的
在行级别上添加一个bloom过滤器
通过将低区域文件最大值设置为1Go或更低来分割您的桌子,并为您的桌子预分割(按国家,商家或任何您想要的)
激活内存
使用快速压缩编解码器(lzo或snappy是好的)
在客户端使用tablepool
使用memcache(...)
请享用 ;)
编辑
登录
后才能参与评论