Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark apache spark如何处理非rdd的System.out,例如?_Apache Spark_Rdd - Fatal编程技术网

Apache spark apache spark如何处理非rdd的System.out,例如?

Apache spark apache spark如何处理非rdd的System.out,例如?,apache-spark,rdd,Apache Spark,Rdd,当我编写迭代器(暂时喜欢)或非rdd时 spark是如何处理非rdd的,又是如何处理的 谎言 public static void main(String[] args) { JavaSparkContext sc = ....; int sum=0; for(int i=0; 0<1000000; i++) sum+=i; sc.wrtieHadoop("/user/text/test.txt"); } publicstaticvoidm

当我编写迭代器(暂时喜欢)或非rdd时

spark是如何处理非rdd的,又是如何处理的

谎言

public static void main(String[] args) {
    JavaSparkContext sc = ....;
    int sum=0;
    for(int i=0; 0<1000000; i++)
        sum+=i;
    sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;

对于(inti=0;0此作业由驱动程序处理,框架之外的每个代码块都将在驱动程序中运行

这就是你需要了解你将在你的驱动程序中使用多少内存的原因,因为如果你要做复杂的事情,或者即使你出于任何原因要做一次收集,这都是可能的。所有过程都将在驱动程序中完成。见下图:

因此,正如您的代码所示,所有运行Spark的内容:

public static void main(String[] args) {
    JavaSparkContext sc = ....;
    int sum=0;
    for(int i=0; 0<1000000; i++)
        sum+=i;
    sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;

对于(inti=0;0此作业由驱动程序处理,框架之外的每个代码块都将在驱动程序中运行

这就是你需要了解你将在你的驱动程序中使用多少内存的原因,因为如果你要做复杂的事情,或者即使你出于任何原因要做一次收集,这都是可能的。所有过程都将在驱动程序中完成。见下图:

因此,正如您的代码所示,所有运行Spark的内容:

public static void main(String[] args) {
    JavaSparkContext sc = ....;
    int sum=0;
    for(int i=0; 0<1000000; i++)
        sum+=i;
    sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;
对于(int i=0;0