av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

csv - python多列存取爬蟲網頁?

瀏覽:109日期:2022-08-30 10:07:16

問題描述

爬蟲抓取的資料想分列存取在tsv上,試過很多方式都沒有辦法成功存存取成兩列資訊。想存取為數字爬取的資料一列,底下類型在第二列csv - python多列存取爬蟲網頁?

from urllib.request import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)def GPname(): GPnameList = bs0bj.find_all('dd',{'class':re.compile('ddappname')}) str = ’’ for name in GPnameList:str += name.get_text()str += ’n’print(name.get_text()) return strdef GPcompany(): GPcompanyname = bs0bj.find_all('dd',{'style':re.compile('color')}) str = ’’ for cpa in GPcompanyname:str += cpa.get_text()str += ’n’print(cpa.get_text()) return strwith open(’0217.tsv’,’w’,newline=’’,encoding=’utf-8’) as f: f.write(GPname()) f.write(GPcompany())f.close()

可能對zip不熟悉,存取下來之后變成一個字一格也找到這篇參考,但怎么嘗試都沒有辦法成功https://segmentfault.com/q/10...

問題解答

回答1:

寫csv文件簡單點 你的結構數據要成這樣 [['1. 東森新聞雲','新聞'],['2. 創世黎明(Dawn of world)','遊戲']]

from urllib import urlopenfrom bs4 import BeautifulSoupimport reimport csvhtml = urlopen('http://www.app12345.com/?area=tw&store=Apple%20Store')bs0bj = BeautifulSoup (html)GPnameList = [name.get_text() for name in bs0bj.find_all('dd',{'class':re.compile('ddappname')})]GPcompanyname = [cpa.get_text() for cpa in bs0bj.find_all('dd',{'style':re.compile('color')})]data = ’n’.join([’,’.join(d) for d in zip(GPnameList, GPcompanyname)])with open(’C:/Users/sa/Desktop/0217.csv’,’wb’) as f: f.write(data.encode(’utf-8’))

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 欧美精品三级 | 亚洲伊人av | 黄色成年人网站 | 欧美亚洲激情 | 一区二区久久久 | 日韩资源在线 | 免费视频一区 | 中文字幕亚洲欧美 | 欧美激情影院 | 欧美成人久久 | 久久a视频 | 日韩精品免费一区二区夜夜嗨 | 亚洲欧美综合另类 | 少妇高潮久久久久久潘金莲 | 国产一区不卡 | 五月天婷婷网站| 国产一区二区视频在线观看 | 久久久久久国产精品 | 亚洲一区二区三区四区在线 | 日本色婷婷 | 国产精品一区av | 午夜av网站 | 福利色导航 | 亚洲在线播放 | 丁香六月综合 | 岛国av免费观看 | 白浆在线| 日韩在线观看免费 | 五月久久 | 超碰福利在线 | 久久久午夜| 超碰精品在线 | 波多野结衣av在线播放 | 日韩精品在线一区二区 | 免费观看全黄做爰的视频 | 日韩免费一级片 | 中文在线观看视频 | 日韩成人高清 | 欧美成在线 | 日韩在线一区二区三区 | 国产午夜视频在线观看 |