spark java包如何使用Scala中的spark?

spark java包如何使用Scala中的spark?,scala,spark-java,Scala,Spark Java,我愿意使用Scala应用程序中的spark java包 如何转换spark Java文档中编写的Java调用: get("/hello", (req, res) -> "Hello World"); 去斯卡拉 非常感谢 基督徒你为什么要皈依基督教?它也会起同样的作用。Scala和Java都在JVM上运行。另外,如果你真的想修改,你可以通过他们的回购协议来修改代码 但我不明白你为什么要这么做。你能详细说明你为什么要这么做吗??顺便说一下,仅供参考: Spark主要是用scala编写的 如果

我愿意使用Scala应用程序中的spark java包

如何转换spark Java文档中编写的Java调用:

get("/hello", (req, res) -> "Hello World");
去斯卡拉

非常感谢


基督徒

你为什么要皈依基督教?它也会起同样的作用。Scala和Java都在JVM上运行。另外,如果你真的想修改,你可以通过他们的回购协议来修改代码

但我不明白你为什么要这么做。你能详细说明你为什么要这么做吗??顺便说一下,仅供参考: Spark主要是用scala编写的


如果您想在scala中使用spark,我建议您使用spark scala:

这不是正确的答案,因为spark java与Apache spark是不同的项目。问题是在Scala中使用micro web框架spark java,但这里提供的答案是使用Apache spark,这是一种数据处理和分析工具。答案真的解决了您的问题吗?我看你接受了答案。请你澄清一下好吗?spark java和Apache spark是两种不同类型的项目,一种用作微web框架,另一种用于大数据处理和分析。