Apache spark 我们能用ApacheSpark实现斐波那契级数的并行代码吗

Apache spark 我们能用ApacheSpark实现斐波那契级数的并行代码吗,apache-spark,parallel-processing,cluster-computing,Apache Spark,Parallel Processing,Cluster Computing,通过ApacheSpark,我了解到它用于利用多台名为节点的计算机的计算能力。我们能用这样高的计算能力快速找到第n个斐波那契数吗。。?如果是,那怎么可能呢 当然 斐波那契序列的闭式解由下式给出: 将一个或多个二项式系数分配给每个节点/处理器/计算机,并对结果进行汇总 QED是否有任何示例spark代码可用于实现此目的?@user39602 Stack Overflow是一个编码帮助网站,而不是代码编写服务。发布的问题必须包含非工作代码或不可编译代码,表明OP试图解决编码问题。寻求书籍、工具、软

通过ApacheSpark,我了解到它用于利用多台名为节点的计算机的计算能力。我们能用这样高的计算能力快速找到第n个斐波那契数吗。。?如果是,那怎么可能呢

当然

斐波那契序列的闭式解由下式给出:

将一个或多个二项式系数分配给每个节点/处理器/计算机,并对结果进行汇总


QED

是否有任何示例spark代码可用于实现此目的?@user39602 Stack Overflow是一个编码帮助网站,而不是代码编写服务。发布的问题必须包含非工作代码或不可编译代码,表明OP试图解决编码问题。寻求书籍、工具、软件库、演示、示例代码等方面的建议是堆栈溢出的“主题外”。上面的问题没有代码,应该脱离主题。它包含了一个“我们能…”的问题,并且得到了这个“绝对”的开玩笑的答案(尽管有一些稍微有用的额外细节)。对于您的问题,“示例代码可用吗?”可能是。