# scrapy_redis_mongodb
基于Python+scrapy+redis的分布式爬虫实现框架
#project start
运行run.py
#scrapy_news.py
主要功能是抓取种子url,保存到redis
#redis_mongo.py
主要是从redis里面读url,解析数据保存到mongodb
(拓展到其他机器,都是从redis里面读url)
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
# scrapy_redis_mongodb 基于Python+scrapy+redis的分布式爬虫实现框架 #project start 运行run.py #scrapy_news.py 主要功能是抓取种子url,保存到redis #redis_mongo.py 主要是从redis里面读url,解析数据保存到mongodb (拓展到其他机器,都是从redis里面读url) -------- 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! <项目介绍> 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。 下载后请首先打开README.md文件(如有),仅供学习参考, 切勿用于商业用途。 --------
资源推荐
资源详情
资源评论
收起资源包目录
基于Python+scrapy+redis的分布式爬虫实现框架.zip (28个子文件)
code
scrapy.cfg 284B
.idea
workspace.xml 46KB
misc.xml 215B
inspectionProfiles
profiles_settings.xml 228B
modules.xml 292B
scrapy_redis_mongodb.iml 398B
run.py 115B
.gitignore 14B
README.md 311B
scrapy_redis_mongodb
__init__.py 0B
pipelines.py 3KB
settings.pyc 775B
spiders
__init__.py 161B
master_scrapy_news.py 1KB
scrapy_news.pyc 2KB
TestSpider.py 664B
redis_mongo.pyc 1KB
__init__.pyc 166B
slave_redis_mongo.py 1KB
items.py 643B
middlewares
__init__.py 0B
RandomUserAgent.py 5KB
RandomUserAgent.pyc 5KB
__init__.pyc 170B
__init__.pyc 158B
pipelines.pyc 3KB
settings.py 5KB
items.pyc 788B
共 28 条
- 1
资源评论
奋斗奋斗再奋斗的ajie
- 粉丝: 1211
- 资源: 2591
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功