av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

Python爬蟲爬取有道實現翻譯功能

瀏覽:3日期:2022-07-04 09:22:25

準備

首先安裝爬蟲urllib庫

pip install urllib

獲取有道翻譯的鏈接url

Python爬蟲爬取有道實現翻譯功能

需要發送的參數在form data里

Python爬蟲爬取有道實現翻譯功能

示例

import urllib.requestimport urllib.parseurl = ’http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule’data = {}data[’i’] = ’i love python’data[’from’] = ’AUTO’data[’to’] = ’AUTO’data[’smartresult’] = ’dict’data[’client’] = ’fanyideskweb’data[’salt’] = ’16057996372935’data[’sign’] = ’0965172abb459f8c7a791df4184bf51c’data[’lts’] = ’1605799637293’data[’bv’] = ’f7d97c24a497388db1420108e6c3537b’data[’doctype’] = ’json’data[’version’] = ’2.1’data[’keyfrom’] = ’fanyi.web’data[’action’] = ’FY_BY_REALTlME’data = urllib.parse.urlencode(data).encode(’utf-8’)response = urllib.request.urlopen(url,data)html = response.read().decode(’utf-8’)print(html)

運行會出現50的錯誤,這里需要將url鏈接的_o刪除掉

Python爬蟲爬取有道實現翻譯功能

刪除后運行成功

Python爬蟲爬取有道實現翻譯功能

但是這個結果看起來還是太復雜,需要在進行優化

導入json,然后轉換成字典進行過濾

import urllib.requestimport urllib.parseimport jsonurl = ’http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule’data = {}data[’i’] = ’i love python’data[’from’] = ’AUTO’data[’to’] = ’AUTO’data[’smartresult’] = ’dict’data[’client’] = ’fanyideskweb’data[’salt’] = ’16057996372935’data[’sign’] = ’0965172abb459f8c7a791df4184bf51c’data[’lts’] = ’1605799637293’data[’bv’] = ’f7d97c24a497388db1420108e6c3537b’data[’doctype’] = ’json’data[’version’] = ’2.1’data[’keyfrom’] = ’fanyi.web’data[’action’] = ’FY_BY_REALTlME’data = urllib.parse.urlencode(data).encode(’utf-8’)response = urllib.request.urlopen(url,data)html = response.read().decode(’utf-8’)req = json.loads(html)result = req[’translateResult’][0][0][’tgt’]print(result)

Python爬蟲爬取有道實現翻譯功能但是這個程序只能翻譯一個單詞,用完就廢了。于是我在進行優化

import urllib.requestimport urllib.parseimport jsondef translate(): centens = input(’輸入要翻譯的語句:’) url = ’http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule’ head = {}#增加請求頭,防反爬蟲 head[’User-Agent’] = ’Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36’ data = {}#帶上from data的數據進行請求 data[’i’] = centens data[’from’] = ’AUTO’ data[’to’] = ’AUTO’ data[’smartresult’] = ’dict’ data[’client’] = ’fanyideskweb’ data[’salt’] = ’16057996372935’ data[’sign’] = ’0965172abb459f8c7a791df4184bf51c’ data[’lts’] = ’1605799637293’ data[’bv’] = ’f7d97c24a497388db1420108e6c3537b’ data[’doctype’] = ’json’ data[’version’] = ’2.1’ data[’keyfrom’] = ’fanyi.web’ data[’action’] = ’FY_BY_REALTlME’ data = urllib.parse.urlencode(data).encode(’utf-8’) req = urllib.request.Request(url,data,head) response = urllib.request.urlopen(req) html = response.read().decode(’utf-8’) req = json.loads(html) result = req[’translateResult’][0][0][’tgt’] # print(f’中英互譯的結果:{result}’) return resultt = translate()print(f’中英互譯的結果:{t}’)

優化完成,效果還行。

Python爬蟲爬取有道實現翻譯功能

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 91大神在线资源观看无广告 | 懂色av一区二区三区在线播放 | 国产午夜精品视频 | 久久精品国产一区老色匹 | 久久国产精品久久久久久久久久 | 久久国产一区二区三区 | 在线国产一区 | 中文字幕第49页 | 中文字幕在线一区 | 国产精品美女久久久久久久网站 | 国产传媒毛片精品视频第一次 | 蜜桃久久| 精品无码三级在线观看视频 | 国产精品99久久久久久大便 | 久久国产综合 | 婷婷综合网 | 男女搞网站| 91视频网址 | 成人精品一区二区三区中文字幕 | 一级片在线视频 | 日本三级全黄三级三级三级口周 | 91精品国产91 | 国产精品美女久久久久aⅴ国产馆 | 草草影院ccyy | 日韩精品a在线观看图片 | 91精品国产色综合久久 | 一级美国黄色片 | 欧美精品在线一区二区三区 | 国产999精品久久久久久绿帽 | 亚洲精品v | 日韩网站免费观看 | 精品久久一区 | 国产成人综合av | 成人国产精品久久久 | 国产丝袜一区二区三区免费视频 | 亚洲精品乱码久久久久v最新版 | 国产精品视频一二三 | 四虎影院在线免费观看 | 国产精品久久久久久久久久久免费看 | 第四色播日韩第一页 | www.887色视频免费 |