Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在Spark集群上使用常规python代码_Python_Apache Spark_Distributed Computing - Fatal编程技术网

在Spark集群上使用常规python代码

在Spark集群上使用常规python代码,python,apache-spark,distributed-computing,Python,Apache Spark,Distributed Computing,我可以在Spark集群中使用常规ML库(例如Tensorflow或sci kit learn)运行普通python代码吗?如果是,spark可以在集群中分发我的数据和计算吗?如果没有,原因是什么?Spark使用RDD(弹性分布式数据集)在工作人员或从机之间分配工作,我不认为您可以在python中使用现有代码,而不根据Spark规范对代码进行大幅调整,因为tensorflow有许多选项可以在多个GPU上分配计算。Spark使用RDD(弹性分布式数据集)要在工作人员或从属人员之间分配工作,我认为您不

我可以在Spark集群中使用常规ML库(例如Tensorflow或sci kit learn)运行普通python代码吗?如果是,spark可以在集群中分发我的数据和计算吗?如果没有,原因是什么?

Spark使用RDD(弹性分布式数据集)在工作人员或从机之间分配工作,我不认为您可以在python中使用现有代码,而不根据Spark规范对代码进行大幅调整,因为tensorflow有许多选项可以在多个GPU上分配计算。

Spark使用RDD(弹性分布式数据集)要在工作人员或从属人员之间分配工作,我认为您不能在不根据spark规范对代码进行大幅调整的情况下使用python中的现有代码,因为tensorflow有许多选项可以在多个GPU上分配计算。

签出tensorflowonspark和sklearn spark软件包签出tensorflowonspark和sklearn spark packages