这是我的目录结构的示例:https://pastebin.com/XimFQdS7
假设有数千个子目录和文件,递归搜索所有具有“prj”扩展名的文件可能需要几秒钟的时间。
假设我知道项目目录仅包含一个“pjt”文件,我可以从搜索中丢弃其所有子目录,从而节省大量时间。
这将是上述结构所需的输出:
[
'root/dir1/dirA/',
'root/dir1/dirB/',
'root/dir2/',
'root/dir3/dirA/dirX/',
'root/dir3/dirA/dirY/'
]
这是我当前的搜索代码:
def getSubDirectoriesContainingFileType(root, extension):
os.chdir(root)
fileFormat = '**/*.{}'.format(extension)
files = glob.glob(fileFormat, recursive = True)
matchingDirs = [os.path.dirname(os.path.abspath(file)) for file in files]
return matchingDirs
我使用了 glob,因为我发现它比 os.walk() 快一点,但我认为为了实现我上面讨论的算法,我必须回到 os.walk( )。
该算法的思想是:
def searchDirs(root):
dirs = []
for dir in rootDirs:
search for file with ext
if found:
append dir to dirs
else:
append searchDirs(dir) to dirs
return dirs
虽然我可以笨拙地实现这个算法,但我想知道是否有任何内置库已经提供了这个功能,以确保最大的效率。
最佳答案
我发现你的问题很有趣,所以我做了一些测试。将未过滤不需要的子目录的 glob 原始结果与所需结果的特定搜索功能进行比较。
似乎特定搜索的速度大约是原来的两倍,无需任何进一步处理即可给出想要的结果。
我认为诀窍是
1 如果找到prj文件则立即停止循环
2 在同一循环中同时搜索子目录和 prj 文件。
import os
import random
from pathlib import Path
import time
# --------------------------------------------------------
def make_sub_dirs(dir):
new_dir_paths = []
for i in range(4):
new_dir_path = os.path.join(dir, f'dir{i}')
os.makedirs(new_dir_path)
if random.randint(0, 3) == 1:
prj_file = os.path.join(new_dir_path, 'test.prj')
Path(prj_file).touch()
new_dir_paths.append(new_dir_path)
return new_dir_paths
# --------------------------------------------------------
def make_tree():
base_dir = [r'K:\test_tree']
if os.path.exists(base_dir[0]):
# already made
return
current_level_dir_paths = base_dir
for depth in range(3):
new_dir_paths = []
for dir in current_level_dir_paths:
new_dir_paths.extend(make_sub_dirs(dir))
current_level_dir_paths = new_dir_paths
# --------------------------------------------------------
def search_first_prj_dirs(search_dir_path):
dirs_found = []
dir_entries = os.listdir(search_dir_path)
for dir_entry in dir_entries:
dir_entry_path = os.path.join(search_dir_path, dir_entry)
if os.path.isfile(dir_entry_path):
if os.path.splitext(dir_entry)[-1] == '.prj':
# found !!!!!!
return [search_dir_path]
else:
# this should be a dir
dirs_found.append(dir_entry_path)
# no prj found, recurse into the found sub dirs
first_prj_dirs = []
for dir in dirs_found:
first_prj_dirs.extend(search_first_prj_dirs(dir))
return first_prj_dirs
# --------------------------------------------------------
make_tree()
start_time = time.time()
raw_glob_result = list(Path(r'K:\test_tree').rglob('*.prj'))
end_time = time.time()
print('raw glob', len(raw_glob_result), end_time - start_time)
start_time = time.time()
search_first_prj_dirs_result = search_first_prj_dirs(r'K:\test_tree')
end_time = time.time()
print('specific', len(search_first_prj_dirs_result), end_time - start_time)
print('-------------')
raw_glob_result.sort()
for result in raw_glob_result:
print(result)
print('-------------')
search_first_prj_dirs_result.sort()
for result in search_first_prj_dirs_result:
print(result)
结果
raw glob 17 0.023003816604614258
specific 11 0.010011434555053711
------------- raw glob
K:\test_tree\dir0\dir0\dir0\test.prj
K:\test_tree\dir0\dir3\dir2\test.prj
K:\test_tree\dir1\dir0\dir2\test.prj
K:\test_tree\dir1\dir0\test.prj
K:\test_tree\dir1\dir2\dir1\test.prj
K:\test_tree\dir1\dir2\dir3\test.prj
K:\test_tree\dir1\dir3\dir0\test.prj
K:\test_tree\dir1\dir3\dir1\test.prj
K:\test_tree\dir1\dir3\test.prj
K:\test_tree\dir2\dir0\dir2\test.prj
K:\test_tree\dir2\dir1\dir1\test.prj
K:\test_tree\dir2\dir2\dir1\test.prj
K:\test_tree\dir2\dir3\dir2\test.prj
K:\test_tree\dir3\dir1\dir1\test.prj
K:\test_tree\dir3\dir2\dir3\test.prj
K:\test_tree\dir3\dir3\test.prj
K:\test_tree\dir3\test.prj
------------- specific
K:\test_tree\dir0\dir0\dir0
K:\test_tree\dir0\dir3\dir2
K:\test_tree\dir1\dir0
K:\test_tree\dir1\dir2\dir1
K:\test_tree\dir1\dir2\dir3
K:\test_tree\dir1\dir3
K:\test_tree\dir2\dir0\dir2
K:\test_tree\dir2\dir1\dir1
K:\test_tree\dir2\dir2\dir1
K:\test_tree\dir2\dir3\dir2
K:\test_tree\dir3
关于Python:递归搜索包含扩展名文件的目录,找到文件时排除子目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61652575/