av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術(shù)文章
文章詳情頁

html - Python爬蟲,翻頁數(shù)據(jù)怎么爬,URL不變

瀏覽:120日期:2022-08-09 14:14:12

問題描述

網(wǎng)址:http://quote.eastmoney.com/ce...我想爬所有頁的名稱數(shù)據(jù),(這里只有兩頁),判斷有沒有下一頁的條件該怎么寫呢?代碼:

from selenium import webdriverdriver=webdriver.PhantomJS()url=’http://quote.eastmoney.com/center/list.html#28003684_0_2’driver.get(url)usoup = BeautifulSoup(driver.page_source, ’xml’)n=[]while True: t=usoup.find(’table’,{’id’:’fixed’}) utable=t.find_all(’a’,{’target’:’_blank’}) for i in range(len(utable)): if i % 6 ==1: n.append(utable[i].text) if #停止條件怎么寫: break driver.find_element_by_xpath(r’//*@id='pagenav']/a[2]’).click() usoup = BeautifulSoup(driver.page_source, ’xml’)

后面這里就不會寫了。。。

問題解答

回答1:

可以判斷每一頁的條目,每一頁共20條,如果當前頁不足20條的時候,說明此頁是最后一頁了,爬完當前頁就該停止了

回答2:

話說 這個表格不是都有個jsonp的返回接口嗎?為什么還要爬?

回答3:

走的就是jsonp接口,直接拿就好了。

非要抓取的話,只能用selenium + phantomjs 之類的模擬頁面去獲取了。

回答4:

http://nufm.dfcfw.com/EM_Fina...{rank:[(x)],pages:(pc)}&token=7bc05d0d4c3c22ef9fca8c2a912d779c&jsName=quote_123&_g=0.5385195357178545

標簽: Python 編程
主站蜘蛛池模板: 青青草福利视频 | 国产成人精品免费视频 | 中文字幕不卡在线 | 成年免费视频黄网站在线观看 | 日本精品国产 | 性网址 | 欧美亚洲一区二区三区 | 97久久精品人人澡人人爽 | 黄色片免费看 | 亚洲日本视频 | 黄色网页免费 | 国产超碰在线 | 成人性色生活片 | 91亚洲国产 | 一区二区三区黄色 | 精品免费国产 | 欧美日韩免费在线 | 欧美123区 | 亚洲精品xxx | 国产精品欧美在线 | 色激情网| 日本一级大毛片a一 | 欧美中文字幕在线观看 | 国产精品国产三级国产 | 亚洲一区免费观看 | 免费性网站 | 日韩av不卡在线 | 日本福利视频 | 国产精品久久久久久无人区 | 黄色a一级 | 日韩中文字幕在线播放 | 手机看片久久 | 蜜桃综合网 | 黄色大片av | 欧美日韩精品一区 | 亚洲精品中文字幕乱码三区91 | 九九精品免费视频 | 亚洲一区二区在线播放 | 国产美女精品 | 日韩在线小视频 | 久久综合亚洲 |