使用Python实现微博爬虫
1. 需要爬取的页面URL存取在WeiboSpider/DataBase/UrlRecord.db, 该文件为sqlite数据库文件, URL数据会在爬取的过程中持续添加
2. 爬取的微博数据存放在WeiboSpider/WeiboData目录下, 每个用户单独一个数据文件
3. WeiboSpider/Config.txt文件记录了当前已经爬取的页面的ID, 设置为1则重新爬取
4. 运行WeiboSpider/Main.py即可运行爬虫
5. WeiboSpider/Main.py中的COOKIE你需要设置为你自己的COOKIE
6. 运行一段时间后可能你的IP会被封