av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - 我寫的Xpath 為什么爬取不到內容

瀏覽:67日期:2022-08-13 13:30:26

問題描述

-- coding:utf-8 --

import lxml,requests,sysfrom bs4 import BeautifulSoupfrom lxml import etree

reload(sys)sys.setdefaultencoding('utf-8')

def main():

url = ’https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E6%9A%B4%E8%B5%B0%E6%BC%AB%E7%94%BB&pn=0’req = requests.get(url).content

# soup = BeautifulSoup(req.content,’lxml’) # imgs = soup.find_all(’img’)

content = etree.HTML(req)paths = content.xpath(’//*[@id='imgid']/ul/li[1]/a/img/text()’)# for img in imgs:## print img

# for img in imgs :

print paths

main()

問題解答

回答1:

在寫爬蟲的時候,使用xpath一定要確認一下網頁的源代碼中是否有數據,如果沒有,說明是異步加載的

1. 瀏覽器輸入這個連接即可看源代碼,ctrl+f 查找imgid所在的位置

view-source:https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E6%9A%B4%E8%B5%B0%E6%BC%AB%E7%94%BB&pn=02. 發現

并沒有找到下面的圖片列表,我們可以判定圖片是js加載的

3. 尋找

F12看network(刷新才能看到),并沒有發現異步請求加載的圖片信息,于是我猜測數據應該就在html里,不過是放在js里,在加載圖片的時候處理了

同樣是上面的查看源代碼的方式,查找objURL這個參數發現了真實的url

//很多,集中在html下半部分http://img3.duitang.com/uploads/item/201608/06/20160806110540_MAcru.jpeg解決

剩下的就交給你啦~去想辦法解析出下面部分的真實url吧!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 三级黄网站| 欧美久久久 | 狠狠做深爱婷婷综合一区 | 老司机深夜福利视频 | 国产精品人人做人人爽人人添 | 一级黄片毛片 | 成人免费黄色片 | 在线看片a | 国产福利在线视频 | 免费的黄色小视频 | 国产精品国产精品国产专区不卡 | 日本国产在线观看 | av三级在线观看 | 亚洲精品午夜精品 | 久久免费看片 | 五月天婷婷激情网 | 久久国产99 | 亚洲91精品 | av老司机在线观看 | 欧美在线不卡 | 日韩精品在线视频 | 涩涩的视频 | 天天干夜夜爽 | 亚洲欧美精品一区二区 | 亚洲精品999 | 国产成年妇视频 | 免费看的黄网站 | 久久久精品在线观看 | 手机福利视频 | 国产永久精品 | 色一情一乱一乱一区91av | 午夜你懂的| 国产精品美女久久久久久久久 | 精品久久久久久久久久久久久久 | 黄视频免费看网站 | 国产一区在线播放 | 欧美一区二区三区视频 | av中文天堂 | 色综合99 | 日韩中文字幕在线 | 天天狠狠 |