1. python3
2. scrapy
pip3 install scrapy
3. 使用方法
cd searchengine[search.py的父目录]
python3 search.py [site] [keywords] [page] [sorttype]
site: 目前支持 bing/weibo/weixin/baidu/baidunews/ss_360/ss_360_zx/chinaso/chinaso_news 之一
keywords: 关键词,多个用+连接
page: 页码
sorttype: baidunews支持 1-按照焦点排序,4-按时间排序
输出结果以打印成json数据输出在终端
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
1 python3 2 scrapy pip3 install scrapy 3 使用方法 git clone https://github.com/zhu733756/searchengine.git cd searchengine [search.py的父目录] python3 search.py [site] [keywords] [page] [sorttype] site: 目前支持 bing/weibo/weixin/baidu/baidunews/ss_360/ss_360_zx/chinaso/chinaso_news 之一 keywords: 关键词,多个用+连接 page: 页码 sorttype: baidunews支持 1-按照焦点排序,4-按时间排序 输出结果以打印成json数据输出在终端
资源推荐
资源详情
资源评论
收起资源包目录
searchengine-master.zip (19个子文件)
searchengine-master
searchengine
__init__.py 0B
pipelines.py 293B
spiders
__init__.py 161B
chinaso_news.py 4KB
sogou_wx.py 2KB
bing.py 2KB
weibo.py 2KB
ss_360_zx.py 4KB
baidu.py 13KB
ss_360.py 5KB
test.py 238B
chinaso.py 5KB
baidunews.py 2KB
items.py 447B
settings.py 3KB
middlewares.py 4KB
scrapy.cfg 267B
用法.txt 425B
search.py 2KB
共 19 条
- 1
资源评论
博士僧小星
- 粉丝: 1746
- 资源: 5850
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功