Python + scrape strong within ul

标签 python beautifulsoup

我正在尝试抓取 ul 中 strong 标签下的信息。 我正在使用以下代码来提取强:

stats = soup.find('ul', attrs = {'class' : 'inline-stats section'})
print(stats)

打印如下图所示。 现在,我需要提取 strong 中的信息;即 8.0、49.41 和 6.10。

我尝试循环统计数据中的值,但总是出错并卡住。

谁能帮我解决这个问题?

<ul class="inline-stats section">
<li>
<strong>8.0<abbr class="unit" title="kilometers">km</abbr></strong>
<div class="label">Distance</div>
</li>
<li>
<strong>49:41</strong>
<div class="label">
<span class="glossary-link run-version" data-glossary-term="definition-moving-
time"></span>
Moving Time
</div>
</li>
<li>
<strong>6:10<abbr class="unit" title="minutes per kilometer">/km</abbr></strong>
<div class="label">
<span class="glossary-link run-version" data-glossary-term="definition-moving-
time">
Pace
</span>
</div>
</li>
</ul>

最佳答案

试试这个:

stats = soup.find('ul', attrs = {'class' : 'inline-stats section'}).findAll("strong")

添加:

for i in stats:
    print i

关于Python + scrape strong within ul,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47728631/

相关文章:

python - 网页抓取:访问大列表中的文本信息

python - 如何使用 selenium 从列表中选择一个项目?

python - 在 spacy 中保存和加载 nlp 结果

python - 在Python中使用BeautifulSoup解析多个段落

python - 使用 BeautifulSoup 查找特定字符串之后的第一个字符串

python - 向 Python 的 NoneType 添加方法

python - 我尝试抓取的 html 内容仅在我导航到网站内的某个 anchor 时才会加载

python - 从 pandas 数据框中随机删除多行,但出现异常

Python - Gtk - 从剪贴板粘贴

python - 为什么我的 Ubuntu 在启动 python 脚本后卡住?