Google cloud dataflow 没有此类容器(使用辅助工具\u线束\u容器\u图像)

Google cloud dataflow 没有此类容器(使用辅助工具\u线束\u容器\u图像),google-cloud-dataflow,apache-beam,Google Cloud Dataflow,Apache Beam,我正在尝试在Google云数据流作业ID:2020-06-08_23_39_43-14062032727466654144上运行Apache Beam作业,使用标志 --experiment=beam_fn_api --worker_harness_container_image=gcr.io/PROJECT_NAME/apachebeamp3.7_imageconversion:latest 不幸的是,该作业停留在起始状态。具有完全相同配置的作业在今年2月初运行?我想知道从那以后发生了什么

我正在尝试在Google云数据流作业ID:2020-06-08_23_39_43-14062032727466654144上运行Apache Beam作业,使用标志

--experiment=beam_fn_api 
--worker_harness_container_image=gcr.io/PROJECT_NAME/apachebeamp3.7_imageconversion:latest
不幸的是,该作业停留在起始状态。具有完全相同配置的作业在今年2月初运行?我想知道从那以后发生了什么变化,我需要做什么改变才能让它重新运行

如果我在本地使用

--runner=PortableRunner \
--job_endpoint=embed \
--environment_config=PROJECT_NAME/apachebeamp3.7_imageconversion:latest
它运行得很好

在数据流日志中,我看到以下错误消息:

getPodContainerStatuses for pod "dataflow-beamapp-sam-0609063936-65-06082339-h464-harness-zzpb_default(a65b24a783afd25920bf29ff27d7baf8)" failed: rpc error: code = Unknown desc = Error: No such container: 586554fec1cf2942c7d2f45589db02b217c90c2ea96982041fc3f12b4b6595ff" 

自从gcr.io/PROJECT_NAME/apachebeamp3.7_imageconversion以来,我对容器ID有点困惑:最新的版本目前是8BDF43F9CDCDCD20D4C258A7810C81CB5214ECC984E53417EF8BA1A4CAB2A3DAE

问题:

为什么我会收到与似乎不正确的容器相关的错误消息 被我引用? 我需要做些什么才能使我的工作再次运行? 根据以下问题编辑其他信息:

谢谢你的指点。我已经查看了dataflow.googleapis.com/kubelet日志。我看到的唯一错误是

获取AWS凭据时,提供程序:链中没有有效的提供程序。不赞成。 来自运行时服务的ContainerStatus 55271a8a1af2a90d6162eda03bd8924aad502fd32f09ca50bf35af58e428cf59失败:rpc错误:代码=未知描述=错误:无此类容器:55271a8a1af2a90d6162eda03bd8924aad502fd32f09ca50bf35af58e428cf59 同步pod a65b24a783afd25920bf29ff27d7baf8数据流时出错-beamapp-sam-0609063936-65-06082339-h464-harness-7056\u默认a65b24a783afd25920bf29ff27d7baf8,跳过:[无法启动带有CrashLoopBackOff的sdk0容器:后退10s重新启动失败容器=sdk0 pod=dataflow-beamapp-sam-0609063936-65-06082339-h464-harness-7056_defaulta65b24a783afd25920bf29ff27d7baf8。
奇怪的是,我在日志查看器中没有看到category worker启动。我需要做什么才能看到这些日志条目并能够在调试过程中执行下一步:-?

事实证明我犯了多个错误:

在我的Dockerfile中,我需要从apachebeam/python3.7_sdk:latest更改为apache/beam_python3.7_sdk:latest。 我的Dockerfile没有使用Python beam包的正确版本。
我遇到了类似的问题,获取容器状态xxxxx服务失败,同步pod时出错

我正在尝试从文件中读取数据并为流式应用程序处理它。一旦我删除options.setStreamingtrue,它就会正常工作


流式处理用于从PubSub、Kafka读取无边界数据,批处理用于从数据库或文件读取有边界数据。

您可以分享您使用的数据流SDK版本的信息吗?我正在使用Python和apache_beam={extras=[gcp],version==2.22.0}.Docker容器基于apachebeam/python3.7_sdk:最新版本。如果不查看工作人员启动日志,很难说发生了什么。Dataflow客户支持将提供更好的帮助。若要自己调试此容器,我将尝试启动一个作业,在不进行自定义的情况下传递相同的容器,然后将自定义内容增量添加到了解破损发生的时间。同时查看kubelet和worker启动日志,以查看是否有异常情况。最后,您可以尝试将SSHing发送到VM,docker从您的存储库中拉出容器,以查看是否存在权限问题。请参阅上面的编辑。
ContainerStatus "1647b951d266b4b1d318317b1836002eb4731a510dffa38ba6b58b45a7710784" from runtime service failed: rpc error: code = Unknown desc = Error: No such container: 1647b951d266b4b1d318317b1836002eb4731a510dffa38ba6b58b45a7710784