Apache spark 通过“提交Spark作业”;spark-on-k8s-operator;从另一个豆荚里
根据指南,我在Kubernetes集群中部署了一个“spark-on-k8s”操作符 在指南中,它提到了如何使用kubectl命令部署Spark应用程序 我的问题是,是否可以从不同的pod而不是kubectl命令中部署Spark应用程序?Apache spark 通过“提交Spark作业”;spark-on-k8s-operator;从另一个豆荚里,apache-spark,kubernetes,kubernetes-pod,Apache Spark,Kubernetes,Kubernetes Pod,根据指南,我在Kubernetes集群中部署了一个“spark-on-k8s”操作符 在指南中,它提到了如何使用kubectl命令部署Spark应用程序 我的问题是,是否可以从不同的pod而不是kubectl命令中部署Spark应用程序? 比如说,从一些数据管道应用程序,如ApacheNIFI或Streamset。是的,您可以从另一个pod内部创建pod 您只需创建一个具有适当角色的ServiceAccount,该角色将允许创建pod并将其分配给pod,这样您就可以使用rest api或k8s客
比如说,从一些数据管道应用程序,如ApacheNIFI或Streamset。是的,您可以从另一个pod内部创建pod 您只需创建一个具有适当角色的ServiceAccount,该角色将允许创建pod并将其分配给pod,这样您就可以使用rest api或k8s客户机库之一向kubernetes api服务器进行身份验证以创建pod 阅读更多如何使用 在kubernetes文档中 还可以阅读如何创建角色 并查看k8s客户端库的列表
如果有帮助,请告诉我。谢谢。让它使用以下命令:
curl--cacert“${cacert}”-H“授权:承载${TOKEN}”-H“内容类型:application/json”-H“接受:application/json,*/*”PUT-d“$(cat spark job.json)”“${APISERVER}/api/sparkoperator.k8s.io/v1beta2/NAMESPACE/$NAMESPACE/sparkapplications/”
@toerq您能给我指出一些关于上述REST端点的参考资料吗?我有一个完全相同的要求。没关系,我明白了