av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

瀏覽:91日期:2022-07-25 15:24:15

問題描述

背景: Python3 下使用 bs4 的 select 去獲取 ZOZO首頁上方的 coupon 信息中店鋪名字。 (國內ip貌似看不到優惠券信息,需要翻一下才能看到,最好是島國ip)

問題: 發現自己找不到他的店鋪名字在寫在什么地方,不知道怎么取,前端 js 不懂,請教諸位解答。謝謝。

自己的代碼如下:

import requests, bs4shopName = ’BEAUTY&YOUTH’url = ’http://zozo.jp/’def getZozoCoupon(): res = requests.get(url, headers={'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.110 Safari/537.36'}) res.raise_for_status() soup = bs4.BeautifulSoup(res.text, ’html.parser’) elems = soup.select(’.bnrName’) return elems[0].text.strip()

如下截圖中是想要獲取的文字,python - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

發現查看源碼中卻沒有文字。

<p class='couponInfo'> <p class='bnrName'>說好的文字呢。。。</p> <p class='bnrText'></p></p>

請教他的文字是在哪實現的啊,要怎么用bs4 select才出來,謝謝。

問題解答

回答1:

有可能用ajax從服務器獲取之后操作dom動態添加的吧,在瀏覽器里執行了js就文字也被添加進來。而你用爬蟲爬的時候沒有執行有關js所以也沒有添加文字。

要是真的這樣的話,你可以在瀏覽器的f12那里查看network,把獲取文字的那個http請求的url找出來,直接請求這個url獲取你需要的信息。

回答2:

我在瀏覽器中打開http://zozo.jp/查看源代碼并沒有找到你所要找的bnrNamepython - beautifulSoup4 .select(’.bnrName’) 取不到到 text 文字

回答3:

你在瀏覽器上右鍵“查看網頁源碼”看看能不能找得你那段文字,如果找不到,那網頁應該是用js或者ajax動態加載的,想要爬取這種動態頁面,兩種方法,要么是自己手動模擬請求,要么就用selenium去抓吧

回答4:

確實是js生成的,已經采用headless瀏覽器模擬抓取了,謝謝大家!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 中文字幕 亚洲一区 | 国产精品高潮呻吟久久av野狼 | 国产亚洲精品综合一区 | 一区二区三区高清在线观看 | www国产成人免费观看视频,深夜成人网 | 亚洲导航深夜福利涩涩屋 | 亚洲视频一区在线 | 国产成人精品a视频一区www | 黄色a视频 | 国产在线视频一区二区 | 黄色大片免费播放 | 国产成年人小视频 | 国产精品a免费一区久久电影 | 免费色网址 | 欧美一区二区三区免费电影 | 婷婷激情综合 | 日韩免费毛片视频 | 国产999精品久久久影片官网 | 国产专区视频 | 美女天天操 | 欧美成人h版在线观看 | 欧美成人免费 | 成人在线免费 | 97日日碰人人模人人澡分享吧 | 日韩一级精品视频在线观看 | 久久亚洲综合 | 日韩在线电影 | 久久久久国产一区二区三区 | 午夜男人视频 | 天天色av| 性高朝久久久久久久3小时 av一区二区三区四区 | 欧美成人一区二区三区 | www.47久久青青 | 亚洲男女激情 | 91五月婷蜜桃综合 | 国产精品免费一区二区三区四区 | 在线观看成人 | 色资源站| 成人国产免费视频 | 免费三级网 | 欧美一区二区在线观看视频 |