Google cloud dataflow 谷歌云数据流停滞

Google cloud dataflow 谷歌云数据流停滞,google-cloud-dataflow,Google Cloud Dataflow,最近,我在运行用Python编写的数据流作业时遇到了这个错误。问题是它曾经工作过,没有任何代码发生过变化,所以我认为这与env有关 同步pod d557f64660a131e09d2acb9478fad42f(“”)时出错,跳过: 无法使用CrashLoopBackOff为“python”创建“StartContainer”: “后退20秒重新启动失败的容器=python pod=数据流-) 有人能帮我吗?内里,谢谢你指向SDK的指针。我注意到我的需求文件使用的是SDK 2.4.0的旧版本。我现

最近,我在运行用Python编写的数据流作业时遇到了这个错误。问题是它曾经工作过,没有任何代码发生过变化,所以我认为这与env有关

同步pod d557f64660a131e09d2acb9478fad42f(“”)时出错,跳过: 无法使用CrashLoopBackOff为“python”创建“StartContainer”: “后退20秒重新启动失败的容器=python pod=数据流-)


有人能帮我吗?

内里,谢谢你指向SDK的指针。我注意到我的需求文件使用的是SDK 2.4.0的旧版本。我现在已经将所有内容都更改为2.6.0,不再卡住了。

在我的情况下,我使用的是Apache Beam SDK 2.9.0版,也有同样的问题

我使用了
setup.py
和设置字段“install\u requires”通过加载
requirements.txt
文件的内容动态填充。如果使用
DirectRunner
也可以,但是
DataflowRunner
对本地文件的依赖关系过于敏感,因此放弃该技术和硬编码依赖关系,从
requirements.txt
到“install\u requires”为我解决了一个问题


如果您坚持这样做,请尝试调查您的依赖关系并尽可能减少它们。请参阅文档主题以获取帮助。避免在本地文件系统上使用复杂或嵌套的代码结构或依赖关系。

您的SDK版本是什么?我正在使用适用于Python 2.5.0的Google Cloud Dataflow SDK