HBase是否规定了每行的最大大小? 高级别问题:

HBase是否规定了每行的最大大小? 高级别问题:,hbase,mapr,Hbase,Mapr,HBase是否在存储的字节数方面或在单元数方面规定了所有发行版都通用的最大行大小(因此不是实现工件) 如果是: 限制是多少 限制存在的原因是什么 限额记录在哪里 如果没有: 是否有文档(或测试结果)证明HBase能够处理超过2GB的行?4GB HBase API用户是否有一个实际或“最佳实践”最大值,在该值下,用户应保持行大小,以避免严重的性能下降?如果是这样,如果放弃该指导,会出现什么样的性能下降 在任何一种情况下: 答案是否取决于所讨论的HBase版本 背景: HBase AP

HBase是否在存储的字节数方面或在单元数方面规定了所有发行版都通用的最大行大小(因此不是实现工件)

如果是:

  • 限制是多少

  • 限制存在的原因是什么

  • 限额记录在哪里

如果没有:

  • 是否有文档(或测试结果)证明HBase能够处理超过2GB的行?4GB

  • HBase API用户是否有一个实际或“最佳实践”最大值,在该值下,用户应保持行大小,以避免严重的性能下降?如果是这样,如果放弃该指导,会出现什么样的性能下降

在任何一种情况下:

  • 答案是否取决于所讨论的HBase版本
背景:
  • HBase API的至少一个实现似乎施加了限制MapR Tables,它使用MapR专有的MapR FS作为表的底层存储层,看起来很简单其他流行的HBase API实现是否也施加了这样的限制?
  • 这表明细胞数量没有限制。然而,它也表明“负载平衡和分配的单位是区域,并且一行永远不会在区域之间分割”行存在于单个区域内的要求是否对行大小施加了硬限制或实际限制,超过该限制后,性能下降将变得严重?

一行必须放在一个区域文件中,才能分配给区域服务器并进行复制。区域文件大小可通过“hbase.hregion.max.filesize”配置

此页面显示默认值为10gb/最大值

此页面显示可以设置为100gb

要禁用自动拆分,请将hbase.hregion.max.filesize设置为 非常大的值,例如100 GB,不建议将其设置为 其绝对最大值为Long.MAX_值。