爬取壁纸并分类下载

查看 100|回复 7
作者:不一样也   
[Python] 纯文本查看 复制代码
import requests
import re
import os
import time
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (HTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'
    }
def download_img(img_url,i,k,title):
        
    img_page = requests.get(img_url, headers=headers)
    img_page.encoding = img_page.apparent_encoding
    img_1 = re.findall(r'https://(.*?).jpg', img_page.text)[0]
   
    img = 'https://' + img_1 + '.jpg'
    img_name = f"{title}/" + i + "/" + str(k) + ".jpg"
    with open (img_name, 'wb') as f:
        f.write(requests.get(img).content)
    f.close()
    print('第' + str(k) + '张图片下载完成')
def get_img_url(url):
    l = 0
   
    while True:
        l += 1
        print('正在获取第' + str(l) + '页图片')
        r = requests.get(url +str(l)+'.htm', headers=headers)
        if r.status_code != 200:
            print('下载完成')
            break
        else:
            time.sleep(1)
        r.encoding = r.apparent_encoding
        con = re.findall(r'(.*?)', r.text)
        
        img_num = re.findall(rf'a href="{url}(.*?).htm"', r.text)
        title = re.findall(r'【(.*?)】.*?', r.text)
        title = title[0]
        if not os.path.exists(title):
            os.mkdir(title)
        k = 0
        for j in img_num:
            page_url = url + j + '.htm'
            page = requests.get(page_url, headers=headers)
            page.encoding = page.apparent_encoding
            page_num = re.findall(r'共(.*?)页:', page.text)
            if len(page_num) == 0:
                page_num = 1
            else:
                page_num = page_num[0]
            i = con[k]
            
            if not os.path.exists(f"{title}/" + i):
                os.mkdir(f"{title}/" +i)
            print('正在下载图片:' + i,'共' + str(page_num) + '张')
            
            for k in range(1, int(page_num)+1):
                if k == 1:
                    download_img(page_url,i,k,title)
                else:
                    img_url2 = page_url[:-4] + '_' + str(k) + '.htm'
                    download_img(img_url2,i,k,title)
            k += 1
            
if __name__ == '__main__':
    r = requests.get('http://www.umeituku.com/about/sitemap.htm', headers=headers)
    r.encoding = r.apparent_encoding
    mainnav_url = re.findall(r'> [url=](.*?)[/url]', r.text)
    print("图片分类:")
    j = 1
    for i in title[1:]:
        print(str(j) + '.' + i)
        j += 1
    while True:
        try:
            input_url = int(input('请输入需要下载分类对应序号(1-'+str(j-1)+'):'))
            if input_url  j:
                print('输入错误,请重新输入')
            else:
                url = mainnav_url[int(input_url)-1]
                print('输入的分类为:' + title[int(input_url)-1])
                get_img_url(url)
                break
        except:
            print('输入的不是数字,请重新输入')
            continue
自动创建分类目录,图片序号
优化:图片分类对应数字进行下载,并打包EXE
https://xiezhongye.lanzouq.com/iVGBX22grx6h

图片, 序号

52zct   

正在爬取,很好用!
baliao   

就是不是原图
Patches   

该网站备案中  
青春莫相随   

先收藏一波,感谢分享
china4016   

这个有深度!牛啊
不一样也
OP
  


Patches 发表于 2024-6-22 22:30
该网站备案中

首页打不开,其他都行
不一样也
OP
  


baliao 发表于 2024-6-22 22:27
就是不是原图

提供的图不大
您需要登录后才可以回帖 登录 | 立即注册

返回顶部