Google cloud dataflow 数据流似乎被卡住了3

Google cloud dataflow 数据流似乎被卡住了3,google-cloud-dataflow,Google Cloud Dataflow,我在数据流日志中发现以下错误: (11B5595300EC4CE):工作流失败。原因:(11B5595300EC459):故障 数据流似乎被卡住了。请联系以下地址的数据流团队: 作业ID为:2017-11-13_20_58_16-5812097262489045871 我尝试了完全相同的代码,它正在其他项目上工作 感谢您的帮助 Yosua由于默认网络的区域(在我的例子中为asia-Southast1)和区域参数(默认值:us-central1-f)之间不匹配,数据流无法生成工作线程 因此,为了

我在数据流日志中发现以下错误:

(11B5595300EC4CE):工作流失败。原因:(11B5595300EC459):故障 数据流似乎被卡住了。请联系以下地址的数据流团队:

作业ID为:
2017-11-13_20_58_16-5812097262489045871

我尝试了完全相同的代码,它正在其他项目上工作

感谢您的帮助


Yosua

由于默认网络的区域(在我的例子中为
asia-Southast1
)和区域参数(默认值:
us-central1-f
)之间不匹配,数据流无法生成工作线程

因此,为了解决这个问题,我需要显式地设置管道参数
网络
子网
,以及
区域
I

注意:我发现这个不直观,但是可以将
区域
设为
us-central1
us-central1
之外的区域,因为
区域
参数是我们部署作业的地方,而
区域
是我们生成工作人员的地方


参考:

由于默认网络区域(在我的例子中为
asia-southeras1
)和区域参数(默认值:
us-central1-f
)不匹配,数据流无法生成工作线程

因此,为了解决这个问题,我需要显式地设置管道参数
网络
子网
,以及
区域
I

注意:我发现这个不直观,但是可以将
区域
设为
us-central1
us-central1
之外的区域,因为
区域
参数是我们部署作业的地方,而
区域
是我们生成工作人员的地方


参考资料:

我尝试了WordCount代码,但在同一个项目中出现了相同的错误。错误id:
(efbac2f6c2ec13f0)
作业id:
2017-11-14\u 00\u 42\u 11-421172744575330420
在尝试启动GCE虚拟机运行作业时,数据流似乎失败。是否可能重命名了默认网络?如果是这样,您必须使用pipeline选项@chamikara指定网络是的,这似乎是网络问题。在我指定管道中的网络选项后,它就可以工作了。谢谢!我尝试了WordCount代码,但它在同一个项目中出现了相同的错误。错误id:
(efbac2f6c2ec13f0)
作业id:
2017-11-14\u 00\u 42\u 11-421172744575330420
在尝试启动GCE虚拟机运行作业时,数据流似乎失败。是否可能重命名了默认网络?如果是这样,您必须使用pipeline选项@chamikara指定网络是的,这似乎是网络问题。在我指定管道中的网络选项后,它就可以工作了。谢谢!