av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

關(guān)于python list 寫進(jìn)txt中的問題

瀏覽:118日期:2022-09-01 18:50:29

問題描述

各位大神好,我爬取騰訊新聞的新聞標(biāo)題加入到一個(gè)列表當(dāng)中,在用file.write()寫進(jìn) 新聞.txt的時(shí)候,為啥老是寫入列表的最后一個(gè)呢??

from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)for n in news_titles: title = n.get_text() link = n.get('href') file = open(’/Users/sufan/Desktop/新聞.txt’, ’w’) b = [] b.append(title + ’鏈接’ + link) file.write(str(b))

關(guān)于python list 寫進(jìn)txt中的問題這個(gè)是我爬取出來的東西(print(b)的結(jié)果)

關(guān)于python list 寫進(jìn)txt中的問題這個(gè)是寫入txt中的內(nèi)容

問題解答

回答1:

文件操作放循環(huán)里了?這樣每次操作每次打開文件每次寫入覆蓋…

# -*- coding: utf-8 -*-import sysreload(sys)sys.setdefaultencoding(’utf-8’)from bs4 import BeautifulSoupimport requestsurl = ’http://news.qq.com/’wb_data = requests.get(url).textsoup = BeautifulSoup(wb_data,’lxml’)news_titles = soup.select(’p.text > em.f14 > a.linkto’)file = open(’新聞.txt’, ’a’)for n in news_titles: title = n.get_text() link = n.get('href') b = str(title) + ’ 鏈接: ’ + link +'n' file.write(str(b))file.close()回答2:

for n in news_titles: title = n.get_text() link = n.get('href') b = [] b.append(title + ’鏈接’ + link) with open(’/Users/sufan/Desktop/新聞.txt’, ’w’) as file: file.write(str(b))回答3:

寫的動(dòng)作放錯(cuò)地方了

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 亚洲激情欧美激情 | 中文字幕第一区 | 一区二区三区网站 | 麻豆av片| 亚洲精品一区二区三区精华液 | www.草| 欧美日韩在线观看视频 | 人人艹人人爱 | 一区二区三区中文字幕 | 亚洲综合精品 | 波多野结衣乳巨码无在线观看 | 日本一区二区三区四区五区 | 美女视频福利 | 国产精品久久久久久久成人午夜 | 一区二区国产精品 | 亚洲一区在线视频 | 天天操女人 | 亚洲成人精品 | 日韩国产一区二区三区 | 亚洲成人免费 | 欧美mv日韩mv国产 | 国产成人精品亚洲男人的天堂 | 日韩专区在线观看 | 玖玖在线播放 | 毛片网站大全 | 国产福利在线视频 | 亚洲伦理视频 | 国产成人综合网 | 一区二区视频在线播放 | 黄色高清网站 | 黄色午夜 | 成年人免费看视频 | 97色在线| 国产女人水真多18毛片18精品 | 欧美激情第二页 | 毛片视频网站 | 日韩网站在线观看 | 日韩精品视频在线免费观看 | 亚洲黄色大片 | 看一级黄色片 | 国产一级特黄 |