Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/matlab/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud dataflow 如何获取多个文件作为apache beam输入?_Google Cloud Dataflow_Apache Beam - Fatal编程技术网

Google cloud dataflow 如何获取多个文件作为apache beam输入?

Google cloud dataflow 如何获取多个文件作为apache beam输入?,google-cloud-dataflow,apache-beam,Google Cloud Dataflow,Apache Beam,我正在处理这个场景: 在Google云存储中,我的文件存储在以下结构中: PS*:这两个文件在同一个文件夹中(这是一个缩进错误) 我想做的是: 1] 阅读每天的2个文件“client_info.csv”+“client_events.csv” 2] 基于每个文件中的公共列联接列,以获得1个pcollection 3] 进行转换 4] 将数据加载到bigquery 我写了一个只从一个日期开始读取的代码,它运行得很好,但我无法解决所有日期的迭代部分 如果您有任何建议,请提供。 < P>一个解决方案

我正在处理这个场景: 在Google云存储中,我的文件存储在以下结构中:

PS*:这两个文件在同一个文件夹中(这是一个缩进错误)

我想做的是:

1] 阅读每天的2个文件“client_info.csv”+“client_events.csv”

2] 基于每个文件中的公共列联接列,以获得1个pcollection

3] 进行转换

4] 将数据加载到bigquery

我写了一个只从一个日期开始读取的代码,它运行得很好,但我无法解决所有日期的迭代部分


如果您有任何建议,请提供。

< P>一个解决方案可能是考虑合并两个分支的管道。在每个分支中,分别考虑一个输入文件,然后加入它们。


请查看插图和可用的示例代码

,以便更清楚地说明,您的意思是从一个日期读取两个文件,将它们合并为一个分支输入。问题是,我有2年的数据,730天,所以我会得到730个分支,对吗?是的,这可能不是最整洁的方法,但这应该是一个简单的解决办法