python - BeautifulSoup 查找无类

标签 python beautifulsoup

我有这个 html 代码(网站是 www.kupindo.com):

<div class="holder_content" style="margin-top:20px">
        <div class="holder_pagination">
            <a class="next_prev_link" href="/Knjige/Strucna-literatura/Biznis-i-organizacija/artikli/61_strana_2">« Prethodna</a> 
            <a href="/Knjige/Strucna-literatura/Biznis-i-organizacija/artikli/61">1</a> 
            <span style="float:left">...</span>
            <a class="pagination_active_page">3</a> 
            <span style="float:left">...</span>
            <a href="/Knjige/Strucna-literatura/Biznis-i-organizacija/artikli/61_strana_313">313</a> 
            <a class="next_prev_link" href="/Knjige/Strucna-literatura/Biznis-i-organizacija/artikli/61_strana_4">Sledeća »</a>

            <form action="/Knjige/Strucna-literatura/Biznis-i-organizacija/artikli/61" name="formPagination" id="formPagination" method="post" style="width:170px">
                <label>Idi na stranu:</label>
                <input name="iStr" id="iStr" class="textbox" type="text">
                <input name="butIdiNaStranu" id="butIdiNaStranu" value="Idi" type="submit">
            </form> 
         </div>     
</div>

我需要提取最后一个页码(313)以便迭代所有页面。当我没有课的时候我怎么能做呢? 我只能使用以下方法提取第一页的数字:

broj=corba.find_all("div",{"class":"holder_pagination"})

然后使用:

broj.find("a").text 

当我执行len(broj)时,我得到1(因为只有一个holder_pagination,我知道这一点)。

最佳答案

您应该相反地使用findfind_all。有一个 holder_pagination,因此使用 find 找到它:

broj = corba.find("div",{"class":"holder_pagination"})

然后使用find_all查找所有链接:

links = broj.find_all("a")

现在您有了一个链接列表,因此只需选择倒数第二个即可:

links[-2].text

关于python - BeautifulSoup 查找无类,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43902446/

相关文章:

python - BeautifulSoup 和

Python:计算 Pandas Dataframe 中列表的 PMF

python - 寻找不同的苹果图片图像分割方法

python - 在pandas中,如何将groupby聚合的结果分配给原始df中的下一组?

python - 属性错误: Unknown property cmap

python - 网页抓取成所需的 python 格式

python - 如何仅在自动编码器训练期间保存编码器部分的最佳权重?

python - 如何使用 BeautifulSoup4 为 xml 标记指定命名空间?

python - 漂亮的汤检查标签中的标签

python - 在 Scrapy 中利用 Beautifulsoup