Pyspark Databricks,dbutils,获取Azure Data Lake gen 2路径中所有子文件夹的文件计数和文件大小

Pyspark Databricks,dbutils,获取Azure Data Lake gen 2路径中所有子文件夹的文件计数和文件大小,pyspark,databricks,azure-databricks,Pyspark,Databricks,Azure Databricks,我正在Databricks笔记本(pyspark)中编码,并尝试使用dbutils获取特定Azure Data Lake gen2装载路径中所有子文件夹的文件计数和文件大小 我在一个特定的文件夹中为它编写了代码,但我一直在研究如何编写递归部分…这个怎么样 def deep_ls(路径:str): “”“递归列出基本路径中的所有文件。”“” 对于dbutils.fs.ls(路径)中的x: 如果x.path[-1]不是“/”: 产量x 其他: 对于深槽中的y(x.path): 产量y 归功于

我正在Databricks笔记本(pyspark)中编码,并尝试使用dbutils获取特定Azure Data Lake gen2装载路径中所有子文件夹的文件计数和文件大小

我在一个特定的文件夹中为它编写了代码,但我一直在研究如何编写递归部分…

这个怎么样

def deep_ls(路径:str):
“”“递归列出基本路径中的所有文件。”“”
对于dbutils.fs.ls(路径)中的x:
如果x.path[-1]不是“/”:
产量x
其他:
对于深槽中的y(x.path):
产量y
归功于