Apache spark apache spark如何处理非rdd的System.out,例如?
当我编写迭代器(暂时喜欢)或非rdd时 spark是如何处理非rdd的,又是如何处理的 谎言Apache spark apache spark如何处理非rdd的System.out,例如?,apache-spark,rdd,Apache Spark,Rdd,当我编写迭代器(暂时喜欢)或非rdd时 spark是如何处理非rdd的,又是如何处理的 谎言 public static void main(String[] args) { JavaSparkContext sc = ....; int sum=0; for(int i=0; 0<1000000; i++) sum+=i; sc.wrtieHadoop("/user/text/test.txt"); } publicstaticvoidm
public static void main(String[] args) {
JavaSparkContext sc = ....;
int sum=0;
for(int i=0; 0<1000000; i++)
sum+=i;
sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;
对于(inti=0;0此作业由驱动程序处理,框架之外的每个代码块都将在驱动程序中运行
这就是你需要了解你将在你的驱动程序中使用多少内存的原因,因为如果你要做复杂的事情,或者即使你出于任何原因要做一次收集,这都是可能的。所有过程都将在驱动程序中完成。见下图:
因此,正如您的代码所示,所有运行Spark的内容:
public static void main(String[] args) {
JavaSparkContext sc = ....;
int sum=0;
for(int i=0; 0<1000000; i++)
sum+=i;
sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;
对于(inti=0;0此作业由驱动程序处理,框架之外的每个代码块都将在驱动程序中运行
这就是你需要了解你将在你的驱动程序中使用多少内存的原因,因为如果你要做复杂的事情,或者即使你出于任何原因要做一次收集,这都是可能的。所有过程都将在驱动程序中完成。见下图:
因此,正如您的代码所示,所有运行Spark的内容:
public static void main(String[] args) {
JavaSparkContext sc = ....;
int sum=0;
for(int i=0; 0<1000000; i++)
sum+=i;
sc.wrtieHadoop("/user/text/test.txt");
}
publicstaticvoidmain(字符串[]args){
JavaSparkContext sc=。。。。;
整数和=0;
对于(int i=0;0