av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

python - Scrapy的使用,如何請求新的URL,并回調指定的函數?

瀏覽:135日期:2022-06-27 13:56:42

問題描述

關于Python3下Scrapy的使用問題

import reimport scrapyfrom bs4 import BeautifulSoupfrom scrapy.http import Requestfrom ..items import ZhibobaItemimport jsonimport lxml.htmlimport requestsimport jsonclass Myspider(scrapy.Spider): name = ’zhiboba’ allowed_domains = [’zhibo8.cc’] json_url = ’https://bifen4pc.qiumibao.com/json/list.htm?85591’ bash_url = ’https://www.zhibo8.cc/’ def start_requests(self):yield Request(self.bash_url, self.parse_index) def parse_index(self, response):print('enter the parse_index')print(self.bash_url)ps = BeautifulSoup(response.text, ’lxml’).find_all(label=re.compile('足球'))item = ZhibobaItem()for single_p in ps: item[’label’] = single_p.get(’label’) item[’sdate’] = single_p.get(’data-time’) item[’linkurl’] = self.bash_url + single_p.find(’a’)[’href’] home_team = single_p.get_text().split()[2] item[’home_team’] = home_team visit_team = single_p.get_text().split()[4] item[’visit_team’] = visit_team print('quit the parse_index') print(self.json_url) yield Request(self.json_url, callback=self.get_score, meta={’home_team’: home_team, ’visit_team’: visit_team }) def get_score(self, response):print('enter the get_score')json_url = self.json_urlwbdata = response.get(json_url).textdata = json.loads(wbdata)news = data[’list’]print(wbdata)print('quit the get_score')

當我執行上述代碼時,無法成功的調用json_url以及相應的響應函數get_score,哪里不對?

問題解答

回答1:

試著修改allow_domains = []。

標簽: Python 編程
主站蜘蛛池模板: 亚洲成人免费av | 亚洲人成在线观看 | 在线看日韩| 一区在线播放 | 欧美精品日韩 | 色播久久 | 中文字幕一区二 | 午夜国产一区 | 日韩精品久久久 | 国产精品九九 | 亚洲精品免费在线 | 国产第二区 | 中文字幕在线免费观看 | 欧美日韩激情 | 日日骚av| 久操久操| av不卡一区 | 色综合欧美 | 在线免费看黄色 | 日韩天堂网| 欧美黄色一级大片 | 久久18| 国产精品一区二区三区免费 | 一级黄色性生活片 | 成年人免费在线观看 | 亚洲一区中文 | 男女h黄动漫啪啪无遮挡软件 | 日本精品视频在线观看 | 精品久久久久久久久久久久 | 亚洲一区二区免费视频 | 久久久精品在线观看 | 中国av在线播放 | 日韩欧美高清 | 欧美一区不卡 | 18成人免费观看网站 | 午夜精品国产精品大乳美女 | 日韩av在线不卡 | 中文字字幕在线 | 国产一区二区中文字幕 | 在线观看h片 | 破处视频在线观看 |