scrapy爬虫框架模板
=====
使用scrapy爬虫框架将数据保存Mysql数据库和文件中
## settings.py
- 修改Mysql的配置信息
``` stylus
#Mysql数据库的配置信息
MYSQL_HOST = '127.0.0.1'
MYSQL_DBNAME = 'testdb' #数据库名字,请修改
MYSQL_USER = 'root' #数据库账号,请修改
MYSQL_PASSWD = '123456' #数据库密码,请修改
MYSQL_PORT = 3306 #数据库端口,在dbhelper中使用
```
- 指定pipelines
``` stylus
ITEM_PIPELINES = {
'webCrawler_scrapy.pipelines.WebcrawlerScrapyPipeline': 300,#保存到mysql数据库
'webCrawler_scrapy.pipelines.JsonWithEncodingPipeline': 300,#保存到文件中
}
```
## items.py
- 声明需要格式化处理的字段
``` stylus
class WebcrawlerScrapyItem(scrapy.Item):
'''定义需要格式化的内容(或是需要保存到数据库的字段)'''
# define the fields for your item here like:
# name = scrapy.Field()
name = scrapy.Field() #修改你所需要的字段
url = scrapy.Field()
```
## pipelines.py
### 一、保存到数据库的类`WebcrawlerScrapyPipeline`(在settings中声明)
- 定义一个类方法`from_settings`,得到settings中的Mysql数据库配置信息,得到数据库连接池dbpool
``` stylus
@classmethod
def from_settings(cls,settings):
'''1、@classmethod声明一个类方法,而对于平常我们见到的则叫做实例方法。
2、类方法的第一个参数cls(class的缩写,指这个类本身),而实例方法的第一个参数是self,表示该类的一个实例
3、可以通过类来调用,就像C.f(),相当于java中的静态方法'''
dbparams=dict(
host=settings['MYSQL_HOST'],#读取settings中的配置
db=settings['MYSQL_DBNAME'],
user=settings['MYSQL_USER'],
passwd=settings['MYSQL_PASSWD'],
charset='utf8',#编码要加上,否则可能出现中文乱码问题
cursorclass=MySQLdb.cursors.DictCursor,
use_unicode=False,
)
dbpool=adbapi.ConnectionPool('MySQLdb',**dbparams)#**表示将字典扩展为关键字参数,相当于host=xxx,db=yyy....
return cls(dbpool)#相当于dbpool付给了这个类,self中可以得到
```
- `__init__`中会得到连接池dbpool
``` stylus
def __init__(self,dbpool):
self.dbpool=dbpool
```
- `process_item`方法是pipeline默认调用的,进行数据库操作
``` stylus
#pipeline默认调用
def process_item(self, item, spider):
query=self.dbpool.runInteraction(self._conditional_insert,item)#调用插入的方法
query.addErrback(self._handle_error,item,spider)#调用异常处理方法
return item
```
- 插入数据库方法`_conditional_insert`
``` stylus
#写入数据库中
def _conditional_insert(self,tx,item):
#print item['name']
sql="insert into testpictures(name,url) values(%s,%s)"
params=(item["name"],item["url"])
tx.execute(sql,params)
```
- 错误处理方法`_handle_error`
``` stylus
#错误处理方法
def _handle_error(self, failue, item, spider):
print failue
```
### 二、保存到文件中的类`JsonWithEncodingPipeline`(在settings中声明)
- 保存为json格式的文件,比较简单,代码如下
``` stylus
class JsonWithEncodingPipeline(object):
'''保存到文件中对应的class
1、在settings.py文件中配置
2、在自己实现的爬虫类中yield item,会自动执行'''
def __init__(self):
self.file = codecs.open('info.json', 'w', encoding='utf-8')#保存为json文件
def process_item(self, item, spider):
line = json.dumps(dict(item)) + "\n"#转为json的
self.file.write(line)#写入文件中
return item
def spider_closed(self, spider):#爬虫结束时关闭文件
self.file.close()
```
## dbhelper.py
- 自己实现的操作Mysql数据库的类
- __init__方法,获取settings配置文件中的信息
``` stylus
def __init__(self):
self.settings=get_project_settings() #获取settings配置,设置需要的信息
self.host=self.settings['MYSQL_HOST']
self.port=self.settings['MYSQL_PORT']
self.user=self.settings['MYSQL_USER']
self.passwd=self.settings['MYSQL_PASSWD']
self.db=self.settings['MYSQL_DBNAME']
```
- 连接到Mysql
``` stylus
#连接到mysql,不是连接到具体的数据库
def connectMysql(self):
conn=MySQLdb.connect(host=self.host,
port=self.port,
user=self.user,
passwd=self.passwd,
#db=self.db,不指定数据库名
charset='utf8') #要指定编码,否则中文可能乱码
return conn
```
- 连接到settings配置文件中的数据库名(MYSQL_DBNAME)
``` stylus
#连接到具体的数据库(settings中设置的MYSQL_DBNAME)
def connectDatabase(self):
conn=MySQLdb.connect(host=self.host,
port=self.port,
user=self.user,
passwd=self.passwd,
db=self.db,
charset='utf8') #要指定编码,否则中文可能乱码
return conn
```
- 创建数据库(settings文件中配置的数据库名)
``` stylus
#创建数据库
def createDatabase(self):
'''因为创建数据库直接修改settings中的配置MYSQL_DBNAME即可,所以就不要传sql语句了'''
conn=self.connectMysql()#连接数据库
sql="create database if not exists "+self.db
cur=conn.cursor()
cur.execute(sql)#执行sql语句
cur.close()
conn.close()
```
- 还有一些数据库操作方法传入sql语句和参数即可(具体看代码)
## 实现具体的爬虫.py(即模板中的`pictureSpider_demo.py`文件)
- 继承`scrapy.spiders.Spider` 类
- 声明三个属性
``` stylus
name="webCrawler_scrapy" #定义爬虫名,要和settings中的BOT_NAME属性对应的值一致
allowed_domains=["desk.zol.com.cn"] #搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页
start_urls=["http://desk.zol.com.cn/fengjing/1920x1080/1.html"] #开始爬取的地址
```
- 实现`parse`方法,该函数名不能改变,因为Scrapy源码中默认callback函数的函数名就是parse
``` stylus
def parse(self, response):
```
- 返回item
``` stylus
item=WebcrawlerScrapyItem() #实例item(具体定义的item类),将要保存的值放到事先声明的item属性中
item['name']=file_name
item['url']=realUrl
print item["name"],item["url"]
yield item #返回item,这时会自定解析item
```
## 测试
- 测试DBHelper
创建testdb数据库和testtable表; python dbhelper.py
![创建testdb数据库和testtable表][1]
- 测试爬虫
在D盘建立文件夹pics; 图片自动保存到该文件夹中。
`scrapy crawl webCrawler_scrapy`运行爬虫后会将爬取得图片保存到本地,并且将name和url保存到数据库中
![测试爬虫][2]
[1]: ./images/testDBHelper.gif "testDBHelper.gif"
[2]: ./images/testCrawl.gif "testCrawl.gif"
白话Learning
- 粉丝: 4737
- 资源: 3116
最新资源
- 基于SSM框架的课堂签到系统设计源码分享
- 力荐!Qt中的C++技术(含源码).7z
- 基于Java技术的成人职业技能教育网络课堂系统设计源码
- 基于Python的AI车牌识别系统、微信小程序助农驿站及图书管理系统设计源码
- 基于PHP的o2o同城系统交通服务模块设计源码
- 永磁同步电机基于滑膜的无速度传感器控制仿真 simulink pmsm+smo
- 基于C#开发的全面功能开源称重软件设计源码
- Golang-alpine 镜像文件
- 基于Java、CSS、JavaScript的三平台通用小说下载器与阅读器设计源码
- 带遗忘因子的递推最小二乘轮胎线性侧偏刚度估计 matlab与simulink联合仿真轮胎侧偏刚度估计,可用于车辆动力学模型建模
- 基于Python语言的多语言支持QQ/频道/OneBot ChatGPT机器人设计源码
- 基于Vue的hao123网页简洁版设计源码
- 基于Vue的海外短剧系统多语言版H5与APP双端设计源码
- 拉丁超立方抽样 分层随机抽样 实现多种概率分布数据的生成 图1、2展示了正态分布的拉丁超立方抽样与简单随机抽样的对比,拉丁超立方抽样生成的数据更加光滑、分布范围更加均匀,可考虑到小概率事件的生成 案例
- 基于C++和C语言的武汉理工大学2020数据结构与算法综合实验设计源码
- 阀测试项目软件,上位机通过Labwindows CVI编写,下位机使用的是倍福PLC,下位机软件通过TwinCAT3编写,上位机和下位机通过ADS通讯,还包括一台S7-200 smart,通过OPC进
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈