Apache spark Spark如何支持Python、Scala和Java这三种语言

Apache spark Spark如何支持Python、Scala和Java这三种语言,apache-spark,Apache Spark,只是想了解Spark的运行时,它是如何同时支持Scala、Python和Java三种语言的。 Scala是Spark的母语 Java创建了将scala结构转换为Java友好结构的绑定。例如,一些集合类、案例类和闭包结构必须在java中进行不同的处理 JavaAPI与scala在同一jvm中运行:只是有不同的签名 Python有点不同: 由于它不是一种JVM语言,所以它在与Java/Spark不同的进程空间中运行 py4j用于在运行spark的jvm和python进程之间进行通信 pytho

只是想了解Spark的运行时,它是如何同时支持Scala、Python和Java三种语言的。

  • Scala是Spark的母语
  • Java创建了将scala结构转换为Java友好结构的绑定。例如,一些集合类、案例类和闭包结构必须在java中进行不同的处理
    • JavaAPI与scala在同一jvm中运行:只是有不同的签名
  • Python有点不同:
    • 由于它不是一种JVM语言,所以它在与Java/Spark不同的进程空间中运行
    • py4j用于在运行spark的jvm和python进程之间进行通信
    • python联系JavaAPI(而不是Scala)——它们反过来调用本机ScalaAPI
    • 一些数据操作在python中本地运行,但集群操作在scala端运行
      • Scala是Spark的母语
      • Java创建了将scala结构转换为Java友好结构的绑定。例如,一些集合类、案例类和闭包结构必须在java中进行不同的处理
        • JavaAPI与scala在同一jvm中运行:只是有不同的签名
      • Python有点不同:
        • 由于它不是一种JVM语言,所以它在与Java/Spark不同的进程空间中运行
        • py4j用于在运行spark的jvm和python进程之间进行通信
        • python联系JavaAPI(而不是Scala)——它们反过来调用本机ScalaAPI
        • 一些数据操作在python中本地运行,但集群操作在scala端运行
          • Scala是Spark的母语
          • Java创建了将scala结构转换为Java友好结构的绑定。例如,一些集合类、案例类和闭包结构必须在java中进行不同的处理
            • JavaAPI与scala在同一jvm中运行:只是有不同的签名
          • Python有点不同:
            • 由于它不是一种JVM语言,所以它在与Java/Spark不同的进程空间中运行
            • py4j用于在运行spark的jvm和python进程之间进行通信
            • python联系JavaAPI(而不是Scala)——它们反过来调用本机ScalaAPI
            • 一些数据操作在python中本地运行,但集群操作在scala端运行
              • Scala是Spark的母语
              • Java创建了将scala结构转换为Java友好结构的绑定。例如,一些集合类、案例类和闭包结构必须在java中进行不同的处理
                • JavaAPI与scala在同一jvm中运行:只是有不同的签名
              • Python有点不同:
                • 由于它不是一种JVM语言,所以它在与Java/Spark不同的进程空间中运行
                • py4j用于在运行spark的jvm和python进程之间进行通信
                • python联系JavaAPI(而不是Scala)——它们反过来调用本机ScalaAPI
                • 一些数据操作在python中本地运行,但集群操作在scala端运行

              据我所知,有针对这三种语言的Spark API绑定。在这方面没有什么不寻常的,将来还可以添加更多。谢谢你,我想你回答了我的问题。据我所知,有Spark API绑定针对这三种语言。在这方面没有什么不寻常的,将来还可以添加更多。谢谢你,我想你回答了我的问题。据我所知,有Spark API绑定针对这三种语言。在这方面没有什么不寻常的,将来还可以添加更多。谢谢你,我想你回答了我的问题。据我所知,有Spark API绑定针对这三种语言。在这方面没有什么不寻常的,将来还可以添加更多。谢谢你,我想你回答了我的问题