Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 除了Spark release软件包,我还需要安装其他软件吗?_Apache Spark_Pyspark - Fatal编程技术网

Apache spark 除了Spark release软件包,我还需要安装其他软件吗?

Apache spark 除了Spark release软件包,我还需要安装其他软件吗?,apache-spark,pyspark,Apache Spark,Pyspark,安装Spark似乎有两种方法 通过从下载预构建的Spark release(例如Spark-2.4.5-bin-hadoop2.7.tgz)安装Spark时 我是否需要通过安装JRE来额外安装java命令 我是否需要通过安装JDK来额外安装java编译器javac 我需要额外安装scala编译器吗?(我想没有,因为我看到下载的Spark版本包含 /jar/scala compiler.jar) 我需要额外安装pyspark吗?(我想没有,因为我看到下载的Spark版本包含/bin/pyspar

安装Spark似乎有两种方法

  • 通过从下载预构建的Spark release(例如Spark-2.4.5-bin-hadoop2.7.tgz)安装Spark时

    • 我是否需要通过安装JRE来额外安装
      java
      命令

    • 我是否需要通过安装JDK来额外安装java编译器
      javac

    • 我需要额外安装scala编译器吗?(我想没有,因为我看到下载的Spark版本包含
      /jar/scala compiler.jar

    • 我需要额外安装pyspark吗?(我想没有,因为我看到下载的Spark版本包含
      /bin/pyspark

  • 当通过运行
    pip install pyspark
    安装Spark时,是否 已经为Java和Scala安装spark了吗?还是我需要 另外安装一些东西以编程Spark Java和Scala中的应用程序

  • 谢谢。

    我是否需要通过安装JRE来额外安装java命令

    是的,请参阅常见问题解答

    我是否需要通过安装JDK来额外安装java编译器javac

    没有。我想没有,但我总是使用sdk

    我需要额外安装scala编译器吗?(我想不会,因为我看到下载的Spark版本包含了./jar/scala compiler.jar。)

    没有

    我需要额外安装pyspark吗?(我想没有,因为我看到下载的Spark版本包含。/bin/pyspark。)

    没有

    当通过运行pip install pyspark安装Spark时,它是否已经为Java和Scala安装了Spark

    或者我需要额外安装一些东西来用Java和Scala编程Spark应用程序吗

    要在scala中编程,您需要安装scala来实际创建应用程序jar

    我认为使用下载的版本更容易迁移到集群中运行

    tree .venv/lib/python3.6/site-packages/pyspark/bin
    .venv/lib/python3.6/site-packages/pyspark/bin
    ├── beeline
    ├── beeline.cmd
    ├── docker-image-tool.sh
    ├── find-spark-home
    ├── find-spark-home.cmd
    ├── load-spark-env.cmd
    ├── load-spark-env.sh
    ├── pyspark
    ├── pyspark.cmd
    ├── pyspark2.cmd
    ├── run-example
    ├── run-example.cmd
    ├── spark-class
    ├── spark-class.cmd
    ├── spark-class2.cmd
    ├── spark-shell
    ├── spark-shell.cmd
    ├── spark-shell2.cmd
    ├── spark-sql
    ├── spark-sql.cmd
    ├── spark-sql2.cmd
    ├── spark-submit
    ├── spark-submit.cmd
    ├── spark-submit2.cmd
    ├── sparkR
    ├── sparkR.cmd
    └── sparkR2.cmd