av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

html - 為什么BeautifulSoup find_all 返回的list都不是按照網頁顯示順序排序的?

瀏覽:125日期:2023-10-13 17:52:01

問題描述

我想爬糗百的段子,顯示作者,和對應的段子,先只爬第一面

import requestsfrom bs4 import BeautifulSoup as bspage = 1url = 'http://www.qiushibaike.com/hot/page/'r = requests.get(url+str(page))soup = bs(r.content,'html.parser')names = []for n in soup.find_all('a',{'href':True,'target':True,'title':True}): names += [n.h2.get_text()]print(names)

print 結果:

[’威信紅包接龍關注’, ’ZBZBZBZ’, ’養(yǎng)賊專業(yè)戶’, ’柱流年’, ’大風起兮雪飛揚’, ’依然家的麥芽糖’, ’小小&妖精’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’親愛de橄欖綠’, ’有點胖的妮妮’, ’污奇奇’, ’沒辦法就是這么帥’, ’亦龍’, ’哇噻~桃寶’, ’單名一個飯字’, ’ni敢拿命疼我嗎?’, ’許我三日暖’, ’半闕詞曲丶’, ’誰動了我的糧食?’]

html.fromstring xpath 也這樣

from lxml import htmlimport requestspage = 1url = 'http://www.qiushibaike.com/hot/page/'r = requests.get(url+str(page))tree = html.fromstring(r.content)print(tree.xpath(’//*[@class='article block untagged mb15']/p[1]/a[2]/h2/text()’))

print 結果:

[’威信紅包接龍關注’, ’ZBZBZBZ’, ’養(yǎng)賊專業(yè)戶’, ’大風起兮雪飛揚’, ’柱流年’, ’依然家的麥芽糖’, ’小小&妖精’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’親愛de橄欖綠’, ’有點胖的妮妮’, ’污奇奇’, ’沒辦法就是這么帥’, ’亦龍’, ’單名一個飯字’, ’ni敢拿命疼我嗎?’, ’許我三日暖’, ’半闕詞曲丶’, ’根@兒’, ’我是你的絕無僅有’]

但網頁的實際顯示順序是:

[’威信紅包接龍關注’, ’養(yǎng)賊專業(yè)戶’, ’ZBZBZBZ’, ’柱流年’, ’有點胖的妮妮’, ’依然家的麥芽糖’, ’小小&妖精’, ’大風起兮雪飛揚’, ’蒼南下山耍流氓,黑衣格哥買紅糖’, ’九妹妹~’, ’亦龍’...]

如何讓返回的list的元素的順序和網頁顯示順序相同?

問題解答

回答1:

應該是因為它頁面的內容的排序是在變動的。他的排序是根據評論里面的個“好笑”數來排的,好笑 數字接近的,順序變化正常,而且有時有新的段子加入這頁。你瀏覽器取得頁面的時間,和爬蟲爬取的時間不一樣,看到的段子順序不一樣很正常。

標簽: HTML
相關文章:
主站蜘蛛池模板: 在线中文字幕av | 色播av | 国产在线一区观看 | 亚洲欧美v| 国产精品2区 | 欧美成人手机视频 | 国产激情在线 | 精品欧美乱码久久久久久 | 日韩一区二区三区四区五区 | 淫片一级国产 | 亚洲a毛片 | 精品国产一区二区三区四区在线 | 亚洲狠狠丁香婷婷综合久久久 | 久久com| 精品日本久久久久久久久久 | 国产精品亚洲成在人线 | 国产 欧美 日韩 一区 | 三级特黄特色视频 | 亚洲欧美日韩中文在线 | 四虎影院在线免费观看 | 国产精品一区在线 | 亚洲资源站 | 色婷婷av一区二区三区软件 | 成人影院免费视频 | 欧美日韩国产一区二区 | 欧美一区二区视频 | 91精品www | 久久蜜桃av一区二区天堂 | 久久精品国产久精国产 | 欧美激情在线一区二区三区 | 又爽又黄axxx片免费观看 | 欧美在线观看免费观看视频 | 卡通动漫第一页 | 91天堂网 | 成人在线中文字幕 | 操久久| 日韩在线观看视频一区 | 99热电影| 欧美一区二区三区日韩 | 一区二区三区免费网站 | 欧美视频一区二区三区 |