下载 >  网络技术 >  其它 > python爬取妹纸资源

python爬取妹纸资源 评分:

import requests from bs4 import BeautifulSoup import os class mzitu(): def __init__(self): self.headers = {'User-Agent': "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"} def all_url(self, url): html = self.request(url)##调用requ est函数把套图地址传进去会返回给我们一个response all_a = BeautifulSoup(html.text, 'lxml').find('div', class_='all').find_all('a') # 页面更改 多了一个早期图片 需要删掉(小伙伴们 可以自己尝试处理一下这个页面) all_a.pop(0) # 上面是删掉列表的第一个元素 for a in all_a: title = a.get_text() print(u'开始保存:', title) ##加点提示不然太枯燥了 path = str(title).replace("?", '_') ##我注意到有个标题带有 ? 这个符号Windows系统是不能创建文件夹的所以要替换掉 self.mkdir(path) ##调用mkdir函数创建文件夹!这儿path代表的是标题title哦!!!!!不要糊涂了哦! href = a['href'] self.html(href) ##调用html函数把href参数传递过去!href是啥还记的吧? 就是套图的地址哦!!不要迷糊了哦! def html(self, href): ##这个函数是处理套图地址获得图片的页面地址 html = self.request(href) self.headers['referer'] = href max_span = BeautifulSoup(html.text, 'lxml').find('div', class_='pagenavi').find_all('span')[-2].get_text() for page in range(1, int(max_span) + 1): page_url = href + '/' + str(page) self.img(page_url) ##调用img函数 def img(self, page_url): ##这个函数处理图片页面地址获得图片的实际地址 img_html = self.request(page_url) img_url = BeautifulSoup(img_html.text, 'lxml').find('div', class_='main-image').find('img')['src'] self.save(img_url) def save(self, img_url): ##这个函数保存图片 name = img_url[-9:-4] img = self.request(img_url) f = open(name + '.jpg', 'ab') f.write(img.content) f.close() def mkdir(self, path): ##这个函数创建文件夹 path = path.strip() isExists = os.path.exists(os.path.join("D:\mzitu", path)) if not isExists: print(u'建了一个名字叫做', path, u'的文件夹!') os.makedirs(os.path.join("D:\mzitu", path)) os.chdir(os.path.join("D:\mzitu", path)) ##切换到目录 return True else: print(u'名字叫做', path, u'的文件夹已经存在了!') return False def request(self, url): ##这个函数获取网页的response 然后返回 content = requests.get(url, headers=self.headers) return content Mzitu = mzitu() ##实例化 Mzitu.all_url('http://www.mzitu.com/all') ##给函数all_url传入参数 你可以当作启动爬虫(就是入口)
...展开详情收缩
2019-03-28 上传大小:3KB
分享
收藏 举报
最新python妹子图福利

全网唯一最新代码,使用python多线程的方式,对妹子图网站进行爬取,想爬几页爬几页

立即下载
小姐姐图片

python 3 的爬虫 爬取小姐姐图片 批量下载 完整代码 提供参考 不懂可以私信我

立即下载
Python妹子图-单线程和多线程版本

Python爬取妹子图照片,博客地址:https://www.cnblogs.com/swarmbees/p/10016919.html

立即下载
妹子图.python

爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图爬取煎蛋妹子图

立即下载
python虫,http://www.mzitu.com/这个网站的图哦!代码很精简

python、爬虫、美女、http://www.mzitu.com/ 代码非常精简。可供学习。

立即下载
NTPWEdit windows sam文件编辑器

读取和解析 windows sam文件 字数你妹纸 字数你妹纸 字数你妹纸 字数你妹纸

立即下载
Python 妹子网图片 .py

爬虫 爬妹子图网站的图片 图片保存在当前文件目录的imge文件夹下,注意在当前目录下简历imge文件夹,否则程序有错。

立即下载
多线程妹子图入门

python爬虫小白之入门篇-爬妹子图。虽然python多线程很鸡肋,但是为了更好的了解和学习python多线程机制,所以就拿比较简单的一个问题来试试水。1024

立即下载
妹子.py

用python爬取妹子网图片,需要请自取。

立即下载
RxJava+Retrofit案例,Gank+妹纸资源

RxJava+Retrofit案例,实现获取Gank+妹纸资源

立即下载
Python-Python并下载妹子图网站的图片分三个版本

Python爬取并下载妹子图网站的图片,分三个版本

立即下载
Android--妹纸(GankMeizhi)

Android--妹纸

立即下载
妹纸全景js特效

妹纸全景js特效

立即下载
自动妹子图网站图片并轮播

自动爬取妹子图网站图片并轮播 自动爬取妹子图网站图片并轮播

立即下载
python3美女图片

python爬虫,采用协程实现,效率还行,有界面,默认设置了下载配置(可自行修改,理论上也可以爬其他网站的图片,需要配置正确才行)

立即下载
利用Scrapy框架妹子圖

利用Scrapy框架爬取妹子圖網圖片,需安裝Scray框架...設置了代理,請自行修改。

立即下载
Java虫,妹子图片

Java爬虫,爬取妹子图片

立即下载
妹纸源代码

开源项目妹纸的源码,想学习的可以下载了

立即下载
可爱瞄妹纸电脑主题 win7版.zip

非常可爱的瞄妹纸电脑主题,在主题中2个妹纸在盯着你,你是不是脸红了?有喜欢的朋友不妨下载看看哦。 可爱瞄妹纸电脑主题效果:

立即下载
新浪微博上的妹纸照片的虫程序

爬取新浪微博上的妹纸照片的爬虫程序,来源于中戏北电的美女们的微博上的照片,大学校花们的万张照片唾手可得。程序可复用。

立即下载

热点文章

下载码下载
做任务获取下载码
取消 提交下载码
img

spring mvc+mybatis+mysql+maven+bootstrap 整合实现增删查改简单实例.zip

资源所需积分/C币 当前拥有积分 当前拥有C币
5 0 0
点击完成任务获取下载码
输入下载码
为了良好体验,不建议使用迅雷下载
img

python爬取妹纸资源

会员到期时间: 剩余下载个数: 剩余C币: 剩余积分:0
为了良好体验,不建议使用迅雷下载
VIP下载
您今日下载次数已达上限(为了良好下载体验及使用,每位用户24小时之内最多可下载20个资源)

积分不足!

资源所需积分/C币 当前拥有积分
您可以选择
开通VIP
4000万
程序员的必选
600万
绿色安全资源
现在开通
立省522元
或者
购买C币兑换积分 C币抽奖
img

资源所需积分/C币 当前拥有积分 当前拥有C币
5 4 45
为了良好体验,不建议使用迅雷下载
确认下载
img

资源所需积分/C币 当前拥有积分 当前拥有C币
7 0 0
为了良好体验,不建议使用迅雷下载
VIP和C币套餐优惠
img

资源所需积分/C币 当前拥有积分 当前拥有C币
5 4 45
您的积分不足,将扣除 10 C币
为了良好体验,不建议使用迅雷下载
确认下载
下载
您还未下载过该资源
无法举报自己的资源

兑换成功

你当前的下载分为234开始下载资源
你还不是VIP会员
开通VIP会员权限,免积分下载
立即开通

你下载资源过于频繁,请输入验证码

您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:webmaster@csdn.net!

举报

  • 举报人:
  • 被举报人:
  • *类型:
    • *投诉人姓名:
    • *投诉人联系方式:
    • *版权证明:
  • *详细原因: