今日有朋友加好友与我探讨一些问题,我觉得这些问题倒挺有价值的;于是就想在本公众号开设一个问答专栏,方便技术交流与分享,专栏名就定为:《读者来信》。如遇到本人能力有限难以解决的问题,该贴将会被转发至我的资源圈寻求大佬们出手帮助,并附上提问者微信二维码。也欢迎大家在留言区积极探讨解决方案~
来信人:黄*伟
小猿提问
如果我用Spark处理文件写进HBase,文件按日期每天增量下发,如果只想在HBase中保留最近90天的文件数据,有什么好的方法吗?TTL会有禁用表操作,后端查询就会报错。除了TTL,还有别的解决方案吗?
小猿分析
该问题主要的症结点在于:建表之初,没有及时给列族设置TTL,入数据之后想到可以设置表的TTL属性来保证数据时效性但又不想禁用表。怎么办呢?
小猿解答
这里,小猿给出两条解决方案:
方案一:
其实在稍微高一点的HBase版本,设置表TTL属性已经可以在线进行,不需要disable表了。如果不确定,可以先建一个测试表在线设置一下TTL试一试。如果支持,那可以选择在低峰期通过HBase Shell手动修改列族的时效性,一劳永逸。
hbase(main):030:0> create \'test\',\'f1\'
0 row(s) in 1.2990 seconds
=> Hbase::Table - test
hbase(main):031:0> desc \'test\'
Table test is ENABLED
test
COLUMN FAMILIES DESCRIPTION
{NAME => \'f1\', BLOOMFILTER => \'ROW\', VERSIONS => \'1\', IN_MEMORY => \'false\', KEEP_DELETED_CELLS => \'FALSE\', DATA_BLOCK_ENCODING => \'NONE\', TTL => \'FOREVER\', COMPRESSION => \'NONE\', MIN_VERSIONS
=> \'0\', BLOCKCACHE => \'true\', BLOCKSIZE => \'65536\', REPLICATION_SCOPE => \'0\'}
1 row(s) in 0.0480 seconds
hbase(main):032:0> alter \'test\',{NAME => \'f1\',TTL => \'86400\'}
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.9870 seconds
单位:秒(s)
方案二:
如果方案1行不通,可以尝试通过API的方式,在插入数据时实时设置单条数据TTL。只不过历史数据就要手动删除了。
Put put = new Put(Bytes.toBytes("row1"));
put.setTTL(86400L);
单位:秒(s)
知识点补充
如果想重置TTL为\'FOREVER\'怎么做?
答:HBase TTL 最大值为INT最大值 2147483647,只需将TTL设为该整数即可。
hbase(main):033:0> alter \'test\',{NAME => \'f1\',TTL => \'2147483647\'}
Updating all regions with the new schema...
1/1 regions updated.
Done.
0 row(s) in 1.9170 seconds
hbase(main):034:0> desc \'test\'
Table test is ENABLED
test
COLUMN FAMILIES DESCRIPTION
{NAME => \'f1\', BLOOMFILTER => \'ROW\', VERSIONS => \'1\', IN_MEMORY => \'false\', KEEP_DELETED_CELLS => \'FALSE\', DATA_BLOCK_ENCODING => \'NONE\', TTL => \'FOREVER\', COMPRESSION => \'NONE\', MIN_VERSIONS
=> \'0\', BLOCKCACHE => \'true\', BLOCKSIZE => \'65536\', REPLICATION_SCOPE => \'0\'}
1 row(s) in 0.0140 seconds
如果您有更好的答案,欢迎留言区留言哦~
转载请注明出处!欢迎关注本人微信公众号【HBase工作笔记】