没有合适的资源?快使用搜索试试~ 我知道了~
weibo_crawler:微博搜索结果爬取工具
共12个文件
py:6个
gitignore:1个
txt:1个
需积分: 32 11 下载量 93 浏览量
2021-07-11
15:45:11
上传
评论
收藏 154KB ZIP 举报
温馨提示
weibo_crawler 本工具使用模拟登录来实现微博搜索结果的爬取,如果用户需要爬取更多的数据,请在weibo_zhanghao.txt中添加微博帐号的用户名密码(可以注册小号),每一行一个账户,用户名和密码用逗号隔开。希望更多的使用者能贡献注册的小号,这样能方便大家的爬取 环境要求 Python 系统中需要先安装Python,这是Python官网链接 BeautifulSoup BeautifulSoup是Python的一个html解析库,用来解析微博搜索结果中相关信息,版本是BeautifulSoup4, 安装方法可自行百度 有关BeautifulSoup的更多信息,请访问 mysql-python 访问mysql数据库的python模块,Ubuntu下安装方法见: 使用 将要查询的关键词添加到keywords文件中,并启动程序 python ./Crawler.py 工具
资源推荐
资源详情
资源评论
收起资源包目录
weibo_crawler-master.zip (12个子文件)
weibo_crawler-master
.gitignore 6B
DBConnection.py 1KB
Crawler.py 1KB
Global.py 2KB
weibo_zhanghao.txt 33B
SinaAPI.py 36KB
UserInfo.py 5KB
user_agents 859KB
README.md 2KB
keywords 45B
weibo.ini 110B
WeiboContent.py 5KB
共 12 条
- 1
资源评论
得陇而望蜀者
- 粉丝: 30
- 资源: 4586
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功