Apache spark 除了Spark release软件包,我还需要安装其他软件吗?
安装Spark似乎有两种方法Apache spark 除了Spark release软件包,我还需要安装其他软件吗?,apache-spark,pyspark,Apache Spark,Pyspark,安装Spark似乎有两种方法 通过从下载预构建的Spark release(例如Spark-2.4.5-bin-hadoop2.7.tgz)安装Spark时 我是否需要通过安装JRE来额外安装java命令 我是否需要通过安装JDK来额外安装java编译器javac 我需要额外安装scala编译器吗?(我想没有,因为我看到下载的Spark版本包含 /jar/scala compiler.jar) 我需要额外安装pyspark吗?(我想没有,因为我看到下载的Spark版本包含/bin/pyspar
- 我是否需要通过安装JRE来额外安装
命令java
- 我是否需要通过安装JDK来额外安装java编译器
javac
- 我需要额外安装scala编译器吗?(我想没有,因为我看到下载的Spark版本包含
)/jar/scala compiler.jar
- 我需要额外安装pyspark吗?(我想没有,因为我看到下载的Spark版本包含
)/bin/pyspark
pip install pyspark
安装Spark时,是否
已经为Java和Scala安装spark了吗?还是我需要
另外安装一些东西以编程Spark
Java和Scala中的应用程序tree .venv/lib/python3.6/site-packages/pyspark/bin
.venv/lib/python3.6/site-packages/pyspark/bin
├── beeline
├── beeline.cmd
├── docker-image-tool.sh
├── find-spark-home
├── find-spark-home.cmd
├── load-spark-env.cmd
├── load-spark-env.sh
├── pyspark
├── pyspark.cmd
├── pyspark2.cmd
├── run-example
├── run-example.cmd
├── spark-class
├── spark-class.cmd
├── spark-class2.cmd
├── spark-shell
├── spark-shell.cmd
├── spark-shell2.cmd
├── spark-sql
├── spark-sql.cmd
├── spark-sql2.cmd
├── spark-submit
├── spark-submit.cmd
├── spark-submit2.cmd
├── sparkR
├── sparkR.cmd
└── sparkR2.cmd