Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/actionscript-3/7.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
估计行大小HBase/HyperTable_Hbase_Hypertable - Fatal编程技术网

估计行大小HBase/HyperTable

估计行大小HBase/HyperTable,hbase,hypertable,Hbase,Hypertable,如果我知道要存储哪种类型的数据并考虑压缩,有没有办法估计行大小 我在看这样的东西 bson|U id |字符串最大200个字符| int32 | int32 | int32 | bool | bool | DateTime | DateTime | int32 我正在尝试为大约2万亿条记录(如上面的一条记录)以及大约x20条记录(如下面的记录)找到最佳的DB解决方案 bson_id | bson_id 欢迎任何其他建议对非常一般的答案进行排序 据我所知,只有使用虚拟数据的测试才是测量这种情况的可

如果我知道要存储哪种类型的数据并考虑压缩,有没有办法估计行大小

我在看这样的东西

bson|U id |字符串最大200个字符| int32 | int32 | int32 | bool | bool | DateTime | DateTime | int32

我正在尝试为大约2万亿条记录(如上面的一条记录)以及大约x20条记录(如下面的记录)找到最佳的DB解决方案

bson_id | bson_id


欢迎任何其他建议

对非常一般的答案进行排序

据我所知,只有使用虚拟数据的测试才是测量这种情况的可靠方法。“Dummy”在这里的意思是假的,但不是重复的,因为强烈的重复可能会破坏压缩估计

例如,您可以放置1m、2m、4m、8m、32m、128m等…记录并检查是否存在任何线性相关性。如果它是线性的,你可以通过一些偶然性很容易地推断出数十亿和万亿记录的值

在这种测试中,您还可以根据需要检查性能。例如,您可以增加HDFS的复制因子以提高读取性能

最后,您可以检查压缩视点

祝BigData好运