Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/redis/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在nosql数据中使用类似关系数据库的模式_Nosql_Redis_Scalability_Analytics_Bigdata - Fatal编程技术网

在nosql数据中使用类似关系数据库的模式

在nosql数据中使用类似关系数据库的模式,nosql,redis,scalability,analytics,bigdata,Nosql,Redis,Scalability,Analytics,Bigdata,我正在尝试创建一个基于redis的数据存储,其中包含多个字段,可用于根据实体的值获取实体。数据可能是这样的 Person<Entity> Name Address Purchases<Another Entity> Reviews<list of another Entity> 人 名称 住址 购买 评论 其他实体中也存在同样的情况,因为不同实体之间存在多对多关系 我没有考虑传统的数据库,因为我在这样的例子中寻找可伸缩性和容错性。 我正在创建的是以

我正在尝试创建一个基于redis的数据存储,其中包含多个字段,可用于根据实体的值获取实体。数据可能是这样的

Person<Entity>
 Name
 Address
 Purchases<Another Entity>
 Reviews<list of another Entity>
人
名称
住址
购买
评论
其他实体中也存在同样的情况,因为不同实体之间存在多对多关系

我没有考虑传统的数据库,因为我在这样的例子中寻找可伸缩性和容错性。 我正在创建的是以下内容 映射到每个实体对象的实体id的哈希 集合,其中包含所述人员与购买的关联和另一个用于人员与购买的关联,等等-一个用于多对多关系的双方

由于此设计将涉及大量开销,我怀疑在保持此非规范化方面存在一些缺陷。至于选择使用内存存储而不是数据库,我认为查询响应时间至关重要。我正在寻找有关我的设计的建议,因为我正在实施这个示例来学习如何处理bigdata挑战

我正在寻找有关我的设计的建议,因为我正在实施这个 学习如何应对大数据挑战的示例

你凭什么相信你的挑战是大数据?我们讨论了多少数据?在将关系数据库视为可能满足您需求的解决方案之前,您需要先问自己这个问题

我不考虑我正在寻找的传统数据库 在这样的例子中,可伸缩性和容错性

Redis和关系数据库具有相同的可伸缩性问题;除非您实现或使用自定义分片技术,否则它们无法很好地水平扩展。旨在解决这个问题,但这是一项正在进行的工作,尚未准备好生产,同时您可以使用。它由Twitter开发,是一个代理解决方案,可以在redis服务器集群中分发密钥

我正在尝试创建一个具有多个字段的基于redis的数据存储 可用于根据其值获取实体的

Redis不设计为基于值、期间进行查询;仔细阅读并更好地理解原因

我正在寻找有关我的设计的建议,因为我正在实施这个 学习如何应对大数据挑战的示例

你凭什么相信你的挑战是大数据?我们讨论了多少数据?在将关系数据库视为可能满足您需求的解决方案之前,您需要先问自己这个问题

我不考虑我正在寻找的传统数据库 在这样的例子中,可伸缩性和容错性

Redis和关系数据库具有相同的可伸缩性问题;除非您实现或使用自定义分片技术,否则它们无法很好地水平扩展。旨在解决这个问题,但这是一项正在进行的工作,尚未准备好生产,同时您可以使用。它由Twitter开发,是一个代理解决方案,可以在redis服务器集群中分发密钥

我正在尝试创建一个具有多个字段的基于redis的数据存储 可用于根据其值获取实体的


Redis不设计为基于值、期间进行查询;仔细阅读并更好地理解原因。

感谢@raffian澄清并提及Twenproxy。我想到的最初数据是大约1000万条记录,这些记录很容易放大。我一直在寻找最快的查找速度,同时维护自定义解决方案。感谢@raffian澄清并提及twemproxy。我想到的最初数据是大约1000万条记录,这些记录很容易放大。在维护自定义解决方案的同时,我正在寻找尽可能快的查找。