av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - scrapy 再次請求的問題

瀏覽:131日期:2022-08-17 18:54:48

問題描述

如:item[’url’]=response.xpath(’a/@href’)分析出一個鏈接,然后想從這個鏈接里的網頁再獲取一些元素,放入item[’other’]。應該怎么寫,謝謝。

問題解答

回答1:

def parse_page1(self, response): for url in urls:item = MyItem()item[’url’] = urlrequest = scrapy.Request(url,callback=self.parse_page2)# request = scrapy.Request('http://www.example.com/some_page.html',dont_filter=True,callback=self.parse_page2)request.meta[’item’] = itemyield requestdef parse_page2(self, response): item = response.meta[’item’] item[’other’] = response.xpath(’/other’) yield item

最后附上官方文檔https://doc.scrapy.org/en/lat...中文翻譯版http://scrapy-chs.readthedocs...

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲精品一区二区三区四区高清 | 久久精品成人 | 欧美日日 | 国产精品a久久久久 | 久久欧美高清二区三区 | 91视在线国内在线播放酒店 | 亚洲国产精品久久人人爱 | 精品无码久久久久久久动漫 | 国产精品一区二区三区在线 | 黄网免费看 | 国产精品a级 | 亚洲成人一区二区在线 | 亚洲精品欧美一区二区三区 | 午夜小视频在线播放 | 亚洲一区二区在线播放 | 91黄在线观看| 91亚洲精| www.玖玖玖| 国产一区二区在线播放视频 | 国产精品乱码一区二区三区 | 日韩av免费在线观看 | 国产一区欧美 | 一区二区三区四区不卡视频 | 精品一区二区在线视频 | 日韩成人免费av | 国产高清美女一级a毛片久久w | 欧美日韩国产精品一区 | 国产精品视频一二三区 | 日韩一区二区视频 | 国产三区精品 | 久久久久网站 | 亚洲草草视频 | 2019天天操 | 日本在线免费 | 国产欧美精品一区二区 | 亚洲v日韩v综合v精品v | 国产精品久久久久久久7电影 | 国产精品久久国产精品久久 | 久草视频在线播放 | 91精品在线播放 | 亚洲精品久久久久久久久久久久久 |