没有合适的资源?快使用搜索试试~ 我知道了~
Python-scrapyredis的集群版
共27个文件
py:19个
gitignore:2个
md:2个
需积分: 10 1 下载量 48 浏览量
2019-08-12
05:35:26
上传
评论
收藏 24KB ZIP 举报
温馨提示
scrapy-redis的集群版,可以借助Redis集群实现海量网站的独立去重,避免单机内存不足的尴尬
资源推荐
资源详情
资源评论
收起资源包目录
Python-scrapyredis的集群版.zip (27个子文件)
scrapy_redis_cluster-master
.gitignore 756B
requirements.txt 58B
src
setup.py 614B
scrapy_redis_cluster
scheduler.py 6KB
bloomfilter.py 2KB
__init__.py 226B
spiders.py 7KB
pipelines.py 2KB
connection.py 4KB
utils.py 192B
dupefilter.py 4KB
picklecompat.py 242B
pop.lua 405B
queue.py 5KB
defaults.py 786B
example-project
quotesbot
.gitignore 1KB
quotesbot
spiders
toscrape-css.py 836B
__init__.py 161B
toscrape-xpath.py 764B
__init__.py 0B
pipelines.py 289B
settings.py 4KB
items.py 288B
LICENSE 1KB
README.md 1KB
scrapy.cfg 262B
README.md 1KB
共 27 条
- 1
资源评论
普通网友
- 粉丝: 484
- 资源: 1万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功