似乎无法用我的Python脚本抓取深层目录,知道吗?

似乎无法用我的Python脚本抓取深层目录,知道吗?,python,recursion,web-crawler,directory,Python,Recursion,Web Crawler,Directory,脚本基本上是创建一个包含所有目录中所有文件的列表。你知道为什么当它必须扫描一个比几个文件都大的目录时会崩溃吗 import os correctlyNamedDirectories = [] def crawlDirectories(directory): for dirname, dirnames, filenames in os.walk(directory): for subdirname in dirnames: correctlyNa

脚本基本上是创建一个包含所有目录中所有文件的列表。你知道为什么当它必须扫描一个比几个文件都大的目录时会崩溃吗

import os

correctlyNamedDirectories = []

def crawlDirectories(directory):
    for dirname, dirnames, filenames in os.walk(directory):
        for subdirname in dirnames:
            correctlyNamedDirectories.append(os.path.join(dirname, subdirname))
        for filename in filenames:
            correctlyNamedDirectories.append(os.path.join(dirname, filename))

crawlDirectories('.')

print correctlyNamedDirectories

还有,有没有一种更简洁的方法来写这篇文章?

有列表理解的简短方法:

correctlyNamedDirectories = [os.path.join(path, subname) for path, dirnames, filenames in os.walk(directory) for subname in dirnames + filenames]

崩溃如果你想知道是否有更好的方法来编写一些代码,你可能需要考虑。