色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術文章
文章詳情頁

python爬蟲實例之獲取動漫截圖

瀏覽:2日期:2022-07-23 17:59:22

引言

之前有些無聊(呆在家里實在玩的膩了),然后就去B站看了一些python爬蟲視頻,沒有進行基礎的理論學習,也就是直接開始實戰,感覺跟背公式一樣的進行爬蟲,也算行吧,至少還能爬一些東西,hhh。我今天來分享一個我的爬蟲代碼。

正文

話不多說,直接上完整代碼

ps:這個代碼有些問題 每次我爬到fate的圖片它就給我報錯,我只好用個try來跳過了,如果有哪位大佬能幫我找出錯誤并給與糾正,我將不勝感激

import requests as rimport reimport osimport timefile_name = '動漫截圖'if not os.path.exists(file_name): os.mkdir(file_name) for p in range(1,34): print('--------------------正在爬取第{}頁內容------------------'.format(p)) url = ’https://www.acgimage.com/shot/recommend?page={}’.format(p) headers = {'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.162 Safari/537.36'} resp = r.get(url, headers=headers) html = resp.text images = re.findall(’data-original='(.*?)' ’, html) names =re.findall(’title='(.*?)'’, html) #print(images) #print(names) dic = dict(zip(images, names)) for image in images: time.sleep(1) print(image, dic[image]) name = dic[image] #name = image.split(’/’)[-1] i = r.get(image, headers=headers).content try: with open(file_name + ’/’ + name + ’.jpg’ , ’wb’) as f: f.write(i) except FileNotFoundError: continue

先導入要使用的庫

import requests as rimport reimport osimport time

然后去分析要去爬的網址: https://www.acgimage.com/shot/recommend

下圖是網址的內容:

python爬蟲實例之獲取動漫截圖

好了 url已經確定

下面去尋找headers

python爬蟲實例之獲取動漫截圖

找到user-agent 將其內容復制到headers中

第一步就完成了

下面是代碼展示

url = ’https://www.acgimage.com/shot/recommend?page={}’.format(p)headers = {'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.162 Safari/537.36' }

然后檢索要爬的圖片內容

python爬蟲實例之獲取動漫截圖

從上圖就可以找到圖片的位置:data-origina=后面的內容以及圖片的名字:title=后面的內容

然后用正則表達式re來檢索就行了

images = re.findall(’data-original='(.*?)' ’, html)names =re.findall(’title='(.*?)'’, html)

最后將其保存就好了

i = r.get(image, headers=headers).contentwith open(file_name + ’/’ + name + ’.jpg’ , ’wb’) as f: f.write(i)

還有就是一些細節了

比如換頁

第一頁網址:

https://www.acgimage.com/shot/recommend

第二頁網址:https://www.acgimage.com/shot/recommend?page=2

然后將page后面的數字改動就可以跳到相應的頁面

換頁的問題也就解決了

or p in range(1,34): url = ’https://www.acgimage.com/shot/recommend?page={}’.format(p)

以及將爬到的圖片放到自己建立的文件zh

使用了os庫

file_name = '動漫截圖' if not os.path.exists(file_name): os.mkdir(file_name)

以及為了不影響爬取的網站 使用了sleep函數

雖然爬取的速度慢了一些

但是這是應遵守的道德

time.sleep(1)

以上 這就是我的爬蟲過程

還是希望大佬能解決我的錯誤之處

萬分感謝

總結

到此這篇關于python爬蟲實例之獲取動漫截圖的文章就介紹到這了,更多相關python爬蟲獲取動漫截圖內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品成人免费视频 | 免费在线亚洲视频 | 欧美线在线精品观看视频 | 中国一级毛片视频 | 亚洲精品专区一区二区三区 | 综合 91在线精品 | 日本黄色大片在线播放视频免费观看 | 免费va国产高清不卡大片 | 精品国产区一区二区三区在线观看 | 亚洲 [12p] | 悠悠影院欧美日韩国产 | 看v片| 91精品一区二区三区在线播放 | 国产亚洲高清不卡在线观看 | 成人国产第一区在线观看 | 日韩一区二区在线视频 | 18视频在线观看 | 免费一区二区三区 | 九九99视频在线观看视频观看 | 日本高清一本二本三本如色坊 | 亚洲性无码av在线 | 国产a久久精品一区二区三区 | 另类视频在线观看 | a级精品九九九大片免费看 a级毛片免费观看网站 | 久草精彩视频 | 亚洲成人第一页 | 黄色三级毛片网站 | 午夜啪啪福利视频 | 国产成人精品曰本亚洲78 | 免费看美女毛片 | 男人的天堂在线免费视频 | 女人a级毛片 | 亚洲男人在线天堂 | 欧美人牲囗毛片 | 亚洲精品国产福利 | 中文乱码字幕午夜无线观看 | 国产精品亚洲专区一区 | 在线观看黄网视频免费播放 | 亚洲精品在线免费看 | 日日干日日操日日射 | 日本特爽特黄特刺激大片 |