Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/321.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用REQUOTE DB表示;全文搜索“;_Python_Python 2.7_Rethinkdb_Rethinkdb Python - Fatal编程技术网

Python 使用REQUOTE DB表示;全文搜索“;

Python 使用REQUOTE DB表示;全文搜索“;,python,python-2.7,rethinkdb,rethinkdb-python,Python,Python 2.7,Rethinkdb,Rethinkdb Python,我目前正在开发一个web应用程序,在这个应用程序中,理想情况下,我将能够支持为用户存储的文档上的搜索栏。这些文档中的每一个都将是一个小片段,甚至是一篇大小适中的文章。(我不认为任何文档在搜索时都会超过几KB的文本)因为我一直在阅读RejectionDB的正确使用方法,我一直担心的一点信息是对非索引数据进行过滤等操作的性能,我看到人们提到在其中一个电话中花了好几分钟。考虑到我的预期,从长远来看,至少会有10000多个文档(从长远来看,100000+,1000000+,等等),是否有一种方法能够在标

我目前正在开发一个web应用程序,在这个应用程序中,理想情况下,我将能够支持为用户存储的文档上的搜索栏。这些文档中的每一个都将是一个小片段,甚至是一篇大小适中的文章。(我不认为任何文档在搜索时都会超过几KB的文本)因为我一直在阅读RejectionDB的正确使用方法,我一直担心的一点信息是对非索引数据进行过滤等操作的性能,我看到人们提到在其中一个电话中花了好几分钟。考虑到我的预期,从长远来看,至少会有10000多个文档(从长远来看,100000+,1000000+,等等),是否有一种方法能够在标准DB API中以亚秒(最好是10毫秒)响应时间搜索这些文档?还是我必须想出一个单独的方案,允许通过巧妙地使用索引进行快速搜索?或者我最好使用另一个提供该功能的数据库?

如果不使用索引,查询将必须查看表中的每个文档,因此随着表变大,查询速度会变慢。在快速硬件上搜索10000个文档应该是合理的,但你可能无法在10毫秒内完成,而且数百万个文档的搜索速度可能会很慢


您可能希望将elasticsearch作为实现此目的的一种方法:

搜索每个文档是我对搜索功能的基本要求,这也是我关注性能的原因。我不知道elasticsearch功能,它看起来非常适合我的用例,谢谢!15分钟前刚刚在收藏夹中添加了
referencedb
tag,它已经开始分红了。全文搜索对我来说仍然是一个问题,但很高兴知道还有一个解决方案等着我。