Pyspark Databricks笔记本单元运行时

Pyspark Databricks笔记本单元运行时,pyspark,databricks,azure-databricks,Pyspark,Databricks,Azure Databricks,是否有方法使用Pyspark获取data bricks笔记本中特定单元格的运行时?您可以通过调用System.nanoTime(Scala)来完成此操作。在Scala中使用Spark时,执行代码并测量其运行时间的方法是使用:Spark.time( 注意:您可以使用%magic命令在笔记本中运行多种语言 或 您可以通过调用System.nanoTime(Scala)来实现这一点。在Scala中使用Spark时,执行代码并测量其运行时间的一种方法是使用:Spark.time( 注意:您可以使用%m

是否有方法使用Pyspark获取data bricks笔记本中特定单元格的运行时?

您可以通过调用System.nanoTime(Scala)来完成此操作。在Scala中使用Spark时,执行代码并测量其运行时间的方法是使用:Spark.time(

注意:您可以使用%magic命令在笔记本中运行多种语言


您可以通过调用System.nanoTime(Scala)来实现这一点。在Scala中使用Spark时,执行代码并测量其运行时间的一种方法是使用:Spark.time(

注意:您可以使用%magic命令在笔记本中运行多种语言

我能用上面的代码达到我的要求


当我运行上面的代码片段时,我能够用上面的代码实现我的要求,我每次都会得到一个结果(7.0.x-scala2.12)。我如何确定所花费的时间?整个笔记本电脑单元格都绑定到与连接的群集关联的单个运行时。如果更改与笔记本电脑关联的群集,您将看到连接的群集的运行时版本。明白您的意思了,但我需要将特定单元格所花费的运行时存储在一个变量中并重新使用。如何我实现了这一要求。很抱歉,我误解了错误的问题。我以为您想要获取Azure Databricks运行时,而不是计算单元的执行时间。以下是获取执行时间的两种方法(您可以通过调用System.nanoTime(Scala)或time.time()(Python)来实现这一点)。将Spark与Scala一起使用时,执行代码并测量其运行时间的一种方法是使用:Spark.time()。当我运行上述代码段时,每次都会得到一个结果(7.0.x-scala2.12)。我如何确定所花费的时间?整个笔记本电脑单元格都绑定到与连接的群集关联的单个运行时。如果更改与笔记本电脑关联的群集,您将看到连接的群集的运行时版本。明白您的意思了,但我需要将特定单元格所花费的运行时存储在一个变量中并重新使用。如何我实现了这一要求。很抱歉,我误解了错误的问题。我以为您想要获取Azure Databricks运行时,而不是计算单元的执行时间。以下是获取执行时间的两种方法(您可以通过调用System.nanoTime(Scala)或time.time()(Python)来实现这一点)。将Spark与Scala一起使用时,执行代码并测量其运行时间的方法是使用:Spark.time()。很高兴知道您的问题已经解决。48小时后,您可以。这对其他社区成员有利。谢谢。很高兴知道您的问题已经解决。48小时后,您可以。这对其他社区成员有利。谢谢。
import time
start = time.time()

time.sleep(3)
end = time.time()
diff=end - start
print(diff)