# 爬虫练习
> @author: Sophia
>
> @created: 2021-08-31
>
> @modified: 2023-03-20
## weibo_data_analysis folder
微博数据抓取以及数据分析(已添加IP属地),包括:
- 用户ID,昵称,性别,认证信息,微博说明
- 用户的粉丝数量,关注数量,微博总数
- 每条微博的微博链接,微博内容,发布时间,发布设备,发布地点,抓取时的转发数,评论数,点赞数
#### 步骤
1. 运行 `MySQL/weibo.sql` 中的SQL语句,创建本地数据结构
2. 安装 `requirements.txt` 中的所有库
3. 切入 `weibo_data_analysis` 路径
4. 填写 `weibo_personal_info_spider.py` 和 `update_region_for_each_weibo.py` 的 `__init__` 中的本地数据库配置
5. 运行 `__name__` 函数即可
没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
收起资源包目录
crawl-exercise-main.zip (9个子文件)
crawl-exercise-main
MySQL
zhihu.sql 739B
weibo.sql 2KB
weibo_data_analysis
weibo_new_info_spider.py 11KB
weibo_personal_info_spider.py 11KB
update_region_for_each_weibo.py 7KB
requirements.txt 123B
.gitignore 2KB
zhihu
rank_list_spider.py 4KB
README.md 770B
共 9 条
- 1
资源评论
sjx_alo
- 粉丝: 1w+
- 资源: 1193
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功