Python GCP数据存储与搜索API性能基准?

Python GCP数据存储与搜索API性能基准?,python,google-app-engine,google-cloud-platform,google-cloud-datastore,gae-search,Python,Google App Engine,Google Cloud Platform,Google Cloud Datastore,Gae Search,是否有关于GCP数据存储查询和搜索查询性能的现有基准 我感兴趣的是性能如何随着数据的增长而变化。例如,如果我们有: class Project: members = ndb.StringProperty(repeated=True) 我们在搜索中有如下文档: SearchDocument([AtomField(name=member, value='value...'), ...]) 我想运行搜索以获取用户所属的所有项目ID。比如: ndb.query(keys_only=True).f

是否有关于GCP数据存储查询和搜索查询性能的现有基准

我感兴趣的是性能如何随着数据的增长而变化。例如,如果我们有:

class Project:
  members = ndb.StringProperty(repeated=True)
我们在搜索中有如下文档:

SearchDocument([AtomField(name=member, value='value...'), ...])
我想运行搜索以获取用户所属的所有项目ID。比如:

ndb.query(keys_only=True).filter(Project.members == 'This Member')
在数据存储和类似查询中进行搜索

当有10,100。。。16*6个对象

我感兴趣的是,对于这类简单的查询,是否有一些关于延迟的经验法则。当然,我可以尝试一下,但是如果有人做过类似的基准测试,我想获得一些关于预期性能的直观想法。另外,我希望避免花费$100和时间在写/读我以后需要删除的数据上,所以如果有人能分享他们的经验,那将不胜感激


S.I使用Python,但假设所有支持GCP的语言的答案是相同的/相似的。

直到现在,只支持API搜索,不幸的是,Python的这个版本不再被支持,所以您应该考虑到您将无法获得对该服务的支持。 另一方面,看看这个线程中提供的测试,它可以让您了解如何使用Python3对数据存储执行基准测试