我编写了以下代码,可以从页面下载:
import urllib2,os
from bs4 import BeautifulSoup
page = urllib2.urlopen('http://somesite.com')
soup = BeautifulSoup(page)
for a in soup.find_all('a', href=True):
if "tutorials" in a['href']:
os.system('wget ' + a['href'])
问题出在上面的命令上,它从页面上下载所有链接。我想把视频一一下载。那可能吗?请帮助我。
最佳答案
使用 subprocess.call 模块而不是 os.system。
subprocess.call(['wget' , a['href']])
关于python - 如何在python中循环使用wget进行下载,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39314891/