Apache spark 如果Databricks作业需要超过1小时,它将停止向ADL写入数据
如果Databricks作业需要超过1小时,它将停止向ADL写入数据。 这可能是因为访问令牌过期 这意味着一些大型数据集无法写入磁盘,因为仅仅写入就需要一个多小时。在其他情况下,如果先完成一些计算,然后再将最终输出写入磁盘,则可以在一小时内完成写入Apache spark 如果Databricks作业需要超过1小时,它将停止向ADL写入数据,apache-spark,azure-databricks,Apache Spark,Azure Databricks,如果Databricks作业需要超过1小时,它将停止向ADL写入数据。 这可能是因为访问令牌过期 这意味着一些大型数据集无法写入磁盘,因为仅仅写入就需要一个多小时。在其他情况下,如果先完成一些计算,然后再将最终输出写入磁盘,则可以在一小时内完成写入 任何可能的解决方法都将被推荐尝试增加心跳interval@salim云,你能多说几句吗?没办法找到你
任何可能的解决方法都将被推荐尝试增加心跳interval@salim云,你能多说几句吗?没办法找到你