没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
蜘蛛网爬虫 Spidy (/spˈɪdi/) 是简单易用的命令行网络爬虫。 给定一个网络链接列表,它使用 Python 来查询网页,并使用从页面中提取所有链接。 很简单! 由rivermont (/rɪvɜːrmɒnt/) 和FalconWarriorr (/fælcʌnraɪjɔːr/) 创建,并在这些很棒的人的帮助下开发。 寻找技术文档? 查看DOCS.md 想为这个项目做出贡献吗? 看看CONTRIBUTING.md ,然后查看文档。 :party_popper: 新的功能! 多线程 爬取所有东西! 运行单独的线程以同时处理多个页面。 这么快。 非常哇。 PyPI 一行pip install spidy-web-crawler : pip install spidy-web-crawler ! 使用 Travis CI 进行自动测试 发布 v1.4.0 - # 31663d3 s
资源推荐
资源详情
资源评论
收起资源包目录
spidy-master.zip (36个子文件)
spidy-master
setup.py 2KB
.gitignore 1KB
Dockerfile 500B
media
spidy_docker_demo.gif 15.15MB
start.png 6KB
frame.png 560KB
log.png 7KB
keyboardinterrupt.png 5KB
spidy_logo.png 43KB
favicon.ico 5KB
run.gif 8.07MB
requirements.txt 27B
Makefile 794B
spidy
__init__.py 92B
crawler.py 41KB
config
wsj.cfg 541B
heavy.cfg 451B
infinite.cfg 473B
blank.cfg 1KB
rivermont-infinite.cfg 473B
default.cfg 452B
light.cfg 454B
rivermont.cfg 436B
docker.cfg 471B
multithreaded.cfg 453B
gui.py 9KB
docs
DOCS.md 17KB
CONTRIBUTING.md 1KB
tests.py 6KB
.travis.yml 334B
LICENSE 34KB
setup.cfg 40B
.github
PULL_REQUEST_TEMPLATE.md 624B
ISSUE_TEMPLATE.md 547B
README.md 13KB
README.rst 4KB
共 36 条
- 1
资源评论
syviahk
- 粉丝: 24
- 资源: 4783
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功