Apache spark 获取有关工作流提交后创建的当前dataproc群集的信息
假设我使用dataproc工作流模板和临时集群运行pyspark作业。。。如何获取在pyspark作业中创建的群集的名称一种方法是分叉并运行以下命令:Apache spark 获取有关工作流提交后创建的当前dataproc群集的信息,apache-spark,pyspark,google-cloud-dataproc,Apache Spark,Pyspark,Google Cloud Dataproc,假设我使用dataproc工作流模板和临时集群运行pyspark作业。。。如何获取在pyspark作业中创建的群集的名称一种方法是分叉并运行以下命令: /usr/share/google/get_metadata_value attributes/dataproc-cluster-name 唯一的输出将是集群名称,没有任何新行字符或任何其他需要清理的内容。看
/usr/share/google/get_metadata_value attributes/dataproc-cluster-name
唯一的输出将是集群名称,没有任何新行字符或任何其他需要清理的内容。看