Google cloud platform 如何在没有外部ip的情况下创建数据流作业到数据流工作者?

Google cloud platform 如何在没有外部ip的情况下创建数据流作业到数据流工作者?,google-cloud-platform,google-cloud-dataflow,apache-beam,dataflow,Google Cloud Platform,Google Cloud Dataflow,Apache Beam,Dataflow,我正在使用python代码运行数据流作业 我希望我的数据流工作者只有私有IP,不应该分配外部IP 原因是,我正在从数据流访问mongodb atlas,并且只能从私有IP访问它(因为vpc对等已经完成) 启动作业时,我尝试了许多命令行选项: --disable-public-ips , --no_use_public_ips , --usePublicIps=false 但是没有成功。我如何才能做到这一点?解决了这个问题 问题是,我在代码中指定了网络、子网络参数 根据数据流文档,应指定这两个

我正在使用python代码运行数据流作业

我希望我的数据流工作者只有私有IP,不应该分配外部IP

原因是,我正在从数据流访问mongodb atlas,并且只能从私有IP访问它(因为vpc对等已经完成)

启动作业时,我尝试了许多命令行选项:

--disable-public-ips , --no_use_public_ips , --usePublicIps=false 
但是没有成功。我如何才能做到这一点?

解决了这个问题

问题是,我在代码中指定了网络、子网络参数


根据数据流文档,应指定这两个值中的一个。所以我评论了网络价值并解决了问题

——不使用公共IP是正确的选择。您是如何传递它的,看到了什么行为?您是否也指定了网络或子网络?运行作业时的完整命令是什么?“python3 mongo.py--no_use_public_ips--requirements_file requirements.txt”是我使用的完整命令。当创建数据流工作者时,我将其扩展为只有私有ip。然而,它既有私有IP,也有公共IP。我已经尝试过--网络,子网络,-禁用公共IP,-不使用公共IP,-usePublicIps=false参数在这个命令中。但是没有成功。@PeterKim,是的,我已经用python代码指定了网络和子网络。还尝试在运行python代码时从命令行传递它。