似乎无法用我的Python脚本抓取深层目录,知道吗?
脚本基本上是创建一个包含所有目录中所有文件的列表。你知道为什么当它必须扫描一个比几个文件都大的目录时会崩溃吗似乎无法用我的Python脚本抓取深层目录,知道吗?,python,recursion,web-crawler,directory,Python,Recursion,Web Crawler,Directory,脚本基本上是创建一个包含所有目录中所有文件的列表。你知道为什么当它必须扫描一个比几个文件都大的目录时会崩溃吗 import os correctlyNamedDirectories = [] def crawlDirectories(directory): for dirname, dirnames, filenames in os.walk(directory): for subdirname in dirnames: correctlyNa
import os
correctlyNamedDirectories = []
def crawlDirectories(directory):
for dirname, dirnames, filenames in os.walk(directory):
for subdirname in dirnames:
correctlyNamedDirectories.append(os.path.join(dirname, subdirname))
for filename in filenames:
correctlyNamedDirectories.append(os.path.join(dirname, filename))
crawlDirectories('.')
print correctlyNamedDirectories
还有,有没有一种更简洁的方法来写这篇文章?有列表理解的简短方法:
correctlyNamedDirectories = [os.path.join(path, subname) for path, dirnames, filenames in os.walk(directory) for subname in dirnames + filenames]
崩溃如果你想知道是否有更好的方法来编写一些代码,你可能需要考虑。