Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/azure/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud dataflow apachebeam如何访问bigtable数据?_Google Cloud Dataflow_Apache Beam_Google Cloud Bigtable - Fatal编程技术网

Google cloud dataflow apachebeam如何访问bigtable数据?

Google cloud dataflow apachebeam如何访问bigtable数据?,google-cloud-dataflow,apache-beam,google-cloud-bigtable,Google Cloud Dataflow,Apache Beam,Google Cloud Bigtable,如果在数据流中运行,数据是通过bigtable节点访问还是直接进入bigtable平板电脑 有: 客户端请求在发送到Cloud Bigtable节点之前要经过前端服务器 接着说: 一个Cloud Bigtable表被分成连续的行块,称为tablets,以帮助平衡查询的工作量。。。平板电脑以SSTable格式存储在谷歌的文件系统巨像上 (问题是,如果有一个数据流作业在用户发出明确通过节点的单个请求的同时运行,那么该数据流作业是否会有少量或大量的争用。我猜想,如果该数据流作业通过节点,与hitti相

如果在数据流中运行,数据是通过bigtable节点访问还是直接进入bigtable平板电脑

有:

客户端请求在发送到Cloud Bigtable节点之前要经过前端服务器

接着说:

一个Cloud Bigtable表被分成连续的行块,称为tablets,以帮助平衡查询的工作量。。。平板电脑以SSTable格式存储在谷歌的文件系统巨像上


(问题是,如果有一个数据流作业在用户发出明确通过节点的单个请求的同时运行,那么该数据流作业是否会有少量或大量的争用。我猜想,如果该数据流作业通过节点,与hitti相比,争用会显著增加直接下载平板电脑。)

Beam BigTable连接器使用Cloud BigTable的公共API,因此请求将通过BigTable前端服务器节点进行


有关Beam连接器的BigTable客户端API使用的更多详细信息,请参阅。

因此,如果数据存储使用BigTable,那么这是否意味着在使用dataflow+datastore+Beam时,它会支持许多BigTable节点来处理增加的请求量?Beam BigTableIO连接器不会更改您的BigTable群集配置。它只是连接到给定集群进行读/写。