这篇文章主要介绍如何使用Python爬取股票数据和实现数据接口。
1.定时抓取和解析数据
2.存储数据到MongoDB
3.缓存数据到Redis
4.配置Nginx和数据接口
# 1.定时抓取和解析数据
这次我们抓取的目标是网易财经的股票板块,我们首先分析一下链接http://quotes.money.163.com/trade/lsjysj_603088.html?year=2018&season=1。按照链接的格式,我们拼接好股票代码、年份和季度:
```
url = "http://quotes.money.163.com/trade/lsjysj_" + key + ".html?year=" + year + "&season=" + season
```
拼接好链接后,使用requests库获取页面的内容:
```
requests.get(url)
self.parse_pager(content.content, item["code"])
```
考虑到网络请求可能会失败,我们在请求失败时设置多次重新请求(最多8次),如果多次请求后仍然失败,则将请求的相关内容存储到error_logs中:
```
# 请求失败后重新请求(最多8次)
max_try = 8
for tries in range(max_try):
try:
content = requests.get(url)
self.parse_pager(content.content, item["code"])
break
except Exception:
if tries < (max_try - 1):
sleep(2)
continue
else:
add_error_logs("crawl_error", "501", key)
```
获取到页面内容后,我们先来分析页面结构(图1),我们需要的数据大概是以这样的格式存在的:tr标签表示股票某一天的行情,tr标签下的td标签表示当前行情的详细数据:
![图1](http://upload-images.jianshu.io/upload_images/9225319-2d8358cd97190894?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
使用BeautifulSoup库对页面进行解析,soup.select("div.inner_box tr")会以列表的形势返回div.inner_box下的所有tr标签:
```
soup = bs4.BeautifulSoup(content, "lxml")
parse_list = soup.select("div.inner_box tr")
```
[x.string for x in item.select("td")]会将tr标签下的内容组合成一个数组data,这个数组就是我们要抓取的数据:
```
data = [x.string for x in item.select("td")]
```
每次解析页面时,我们都会从数据库中取出当前股票已经存在的数据,用于判断待插入数据是否已经存在数据库中。这样做可以及时补全数据,并且避免数据重复插入。
```
if price["cur_timer"]not in timer_list:
self.dm.add_tk_item(key, price)
```
由于股票数据是频繁变动的,这就要求我们定时对数据进行更新,这里我们编写一个定时器来实现定时更新数据的功能:
```
timer = threading.Timer(time_interval, fun_timer)
timer.start()
```
我们设置每天16点更新数据:
```
if (hour =="16" or hour =="20")and minute =="00":
dc = ENDataCrawl()
dc.start_crawl()
sleep(time_interval)
rm = RedisManager()
rm.update_data()
```
# 2.存储数据到MongoDB
这里我们使用MongoDB来存储数据,MongoDB作为一个面向文档存储的数据库,操作起来相对比较简单和容易。在编写代码之前,我们需要先进行安装 [MongoDB安装教程](http://www.runoob.com/mongodb/mongodb-window-install.html),此外python操作MongoDB需要用到pymongo库,命令行下输入pip install pymongo安装即可。
安装完成后,我们开始编写MongoDB相关的代码,新建DBManager类用于管理数据库相关操作:
```
class DBManager:
def __init__(self, table_name):
# 指定端口和地址
self.client = MongoClient(mod_config.get_config("database", "dbhost"), int(mod_config.get_config("database", "dbport")))
# 选择数据库
self.db = self.client[mod_config.get_config("database", "dbname")]
self.table = self.db[table_name]
```
在DBManager类中,我们最常用到的有add_tk_item方法,这个方法会根据tk_code(股票代码),将最新的数据插入到price_list中。
```
def add_tk_item(self, tk_code, price_item):
return self.table.update_one({'code': tk_code}, {"$push": {"price_list": price_item}})*
```
以及find_by_id方法,这个方法会根据tk_code查询相应的股票信息。当我们需要对Cursor进行长时间循环遍历时,应该将no_cursor_timeout设置为true。
```
def find_by_id(self, tk_code, request={}):
if tk_code:
request["code"] = tk_code
return self.table.find_one(request)
else:
# 数据量较大时避免CursorNotFoundException
return self.table.find({}, no_cursor_timeout=True)*
```
# 3.缓存数据到Redis
为了提升响应速度,我们使用Redis对数据进行缓存,redis作为一个key-value存储系统,具有极高的性能。跟之前一样我们需要先安装Redis [Redis安装教程](http://www.runoob.com/redis/redis-intro.html),然后为python安装redis库,使用pip install redis命令。
接下来我们创建RedisManager类用于管理Redis的相关操作:
```
class RedisManager:
def __init__(self):
self.pool = redis.ConnectionPool(host=mod_config.get_config("redis", "redis_host"), port=mod_config.get_config("redis", "redis_port"), decode_responses=True)
self.r = redis.Redis(connection_pool=self.pool)
```
update_data方法用于将MongoDB的数据同步到Redis,每次系统执行完爬取业务后都会调用该方法:
```
def update_data(self):
# 将mongodb中的数据同步到redis中
dm = DBManager("tk_details")
code_list = dm.find_by_id("")
for item in code_list:
try:
code = item["code"][:6]
_result = dm.find_by_id(item["code"])
sorted_result = sorted(_result["price_list"], cmp=cmp_datetime, key=operator.itemgetter("cur_timer"))
self.r.set(code, sorted_result)
except Exception:
add_error_logs("redis_error", "501", item["code"])
continue
```
# 4.配置Nginx和数据接口
由于我们只有一个简单的数据接口,所以选择使用Nginx,Nginx 作为一个高性能的 Web 和反向代理服务器,具有简洁高效,占用资源少等优点。考虑到很多开发者习惯在Windows下调试代码,我们先在Windows系统中安装Nginx [windows下安装nginx](https://www.cnblogs.com/saysmy/p/6609796.html)(Windows下Nginx是以应用的形式运行的,这可能也是很多人不愿意在Windows下运行Nginx的原因)。
配置好Nginx后我们开始编写数据接口,start_api_tkdata方法会开启一个监听,用于响应Nginx的请求:
```
def start_api_tkdata():
WSGIServer(myapp, bindAddress=(mod_config.get_config("server", "server_host"), int(mod_config.get_config("server", "tk_data_port")))).run()
```
myapp方法每次收到请求时,都会对请求的格式和参数进行校验,校验通过后则从Redis中获取数据以json格式返回。
```
start_response('200 OK', [('Content-Type', 'text/plain')])
result_json["data"] =str(result).replace("u'", "'")
result_json["tk_code"] =str(list_query[i +1])
return [json.dumps(result_json)]
```
编写完数据接口后,我们在本机启动Nginx,在浏览器中输入http://127.0.0.1:9002/tkdata?code=600008,可以看到如下结果(图2):
![图2](http://upload-images.jianshu.io/upload_images/9225319-3c6b37833f83eb73?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
到此为止,我们的股票爬虫和数据接口就已经完成了,我们还可以在现有的基础上做一些优化,例如:
1.爬取数据时使用多线程和多进程。
2.添加更多的数据接口,添加均线、Macd、Boll等指标数据,这些数据可以由收盘价计算得到。
3.添加数据检测和日志管理模块,如果你打算将这套系统用在生产环境中,这些模块是必须要有的。
python实现的数据爬虫和数据接口.zip
需积分: 0 104 浏览量
更新于2024-01-01
收藏 112KB ZIP 举报
Python合法网页爬虫工具项目分享
内容概览:
这个分享包涵了我开发的Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容:
源代码:包括Python代码和相关脚本。这些代码展示了如何使用Python进行网页抓取、解析和数据提取。
项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景和设计思路至关重要。
文档与操作手册:为了方便他人理解和使用我的作品,我编写了详细的操作手册和使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能和特点。
学习笔记:在项目开发过程中,我记录了大量的学习笔记和心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。
适用人群:
这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。
使用建议:
按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。
参考项目文件和笔记:项目文件和笔记提供了丰富的背景信息和开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解和学习。
动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享
内容概览:
这个分享包涵了我开发的Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容:
源代码:包括Python代码和相关脚本。这些代码展示了如何使用Python进行网页抓取、解析和数据提取。
项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景和设计思路至关重要。
文档与操作手册:为了方便他人理解和使用我的作品,我编写了详细的操作手册和使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能和特点。
学习笔记:在项目开发过程中,我记录了大量的学习笔记和心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。
适用人群:
这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。
使用建议:
按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。
参考项目文件和笔记:项目文件和笔记提供了丰富的背景信息和开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解和学习。
动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享
内容概览:
这个分享包涵了我开发的Python爬虫工具项目,主要用于合法爬取某些网页信息。以下是主要内容:
源代码:包括Python代码和相关脚本。这些代码展示了如何使用Python进行网页抓取、解析和数据提取。
项目文件:除了代码,我还分享了整个项目的文件,包括设计稿、图标、图片等资源。这些资源对于理解项目背景和设计思路至关重要。
文档与操作手册:为了方便他人理解和使用我的作品,我编写了详细的操作手册和使用说明,同时提供了一份Markdown格式的文档,概述了项目的主要功能和特点。
学习笔记:在项目开发过程中,我记录了大量的学习笔记和心得体会。这些笔记不仅有助于理解项目的开发过程,还能为学习Python爬虫技术提供宝贵的参考资料。
适用人群:
这份项目合集适用于所有对Python爬虫开发感兴趣的人,无论你是学生、初学者还是有一定经验的开发者。无论你是想学习新的技术,还是想了解一个完整的项目开发流程,这份资料都将为你提供极大的帮助。
使用建议:
按部就班地学习:建议从基础的Python爬虫开发开始,逐步深入到实际应用中。通过实践,逐步掌握Python爬虫开发的各项技能。
参考项目文件和笔记:项目文件和笔记提供了丰富的背景信息和开发经验。在学习的过程中,不妨参考这些资料,以帮助你更好地理解和学习。
动手实践:Python爬虫开发是一门实践性很强的技能。通过实际操作,你可以更好地掌握Python爬虫开发的各项技能,并提高自己的实践能力。Python合法网页爬虫工具项目分享
内容概览:
这个分享包涵了我开发的Python爬虫工
%小红书%bin
- 粉丝: 1996
- 资源: 2148
最新资源
- GigaDevice.GD32F4xx-DFP.2.1.0 器件安装包
- 智慧校园数字孪生,三维可视化
- 多种土地使用类型图像分类数据集【已标注,约30,000张数据】
- 3.0(1).docx
- 国产文本编辑器:EverEdit用户手册 1.1.0
- 多边形框架物体检测27-YOLO(v5至v11)、COCO、CreateML、Paligemma、TFRecord、VOC数据集合集.rar
- 基于stm32风速风向测量仪V2.0
- 高效排序算法:快速排序Java与Python实现详解
- Metropolis-Hastings算法和吉布斯采样(Gibbs sampling)算法Python代码实现
- IP网络的仿真及实验.doc