# 👨💻 WorkAggregation
基于数据技术的互联网行业招聘信息聚合系统
本系统以Python为核心,依托web展示,所有功能在网页就可以完成操作,爬虫、分析、可视化、互动独立成模块,互通有无。具体依托python的丰富库实现,爬虫使用Requests爬取,使用lxml、beautifulsoup4解析。使用numpy、pandas分析数据,使用pyecharts做可视化,使用Flask进行web后台建设。数据通过csv、MySQL、配置文件来进行存储互通。
为了拓展功能编写了定时器,微信推送,为了适应团队合作编写了函数注册器,参数迭代器。爬虫数据来自前程无忧、齐鲁人才网、猎聘网、拉勾网等等网站,需要的基本数据一应俱全。
## 觉得不错欢迎给star⭐哦
## 部分网站爬虫可能已无法使用 注意使用时的爬虫选项
## ~~在线demo http://58.87.66.50/~~ 服务器到期
## ToDo
- 缺失爬虫补充
- 改善爬取时UI
## 截图
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220123347.png"/>
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220123917.png"/>
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220123715.png"/>
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220123555.png"/>
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220124101.png"/>
<img src="https://github.com/xming521/picture/blob/master/QQ截图20200220123731.png"/>
## 环境
- Windows \ Linux (未测试)
- Python 3.6 : **numpy , pandas , Requests , pyecharts , lxml , PyMySQL**
- MySQL 8.0.11
- Chrome(内核版本60以上)
## 安装
1. 运行 install_package.bat(出错管理员权限下尝试)
2. 修改mysql配置 位于/analysis/analysis_main.py
系统本身有一个可视化的配置文件,即您不需要再导入数据进行分析,如果想重新分析,需要导入数据库数据还需按照数据库字段修改input_data.py内容
3. 将js.7z 解压放在/static 目录下
4. 运行 server.py 来运行web服务器
5. 使用Chrome访问 http://127.0.0.1
### 数据库字段
<img src="https://github.com/xming521/picture/blob/master/db.png"/>
## 架构
系统大致结构如下图,spider目录存放爬虫代码,analysis目录承担了导入、分析、渲染图表、交互等功能,data目录存放原始数据,conf目录存放图表、mysql配置文件。导入处理分析入口统一由analysis_main控制,由server调用,其他功能直接由server调用,所有功能在主页就可以启动。
![](https://github.com/xming521/picture/blob/master/job2.png)
![](https://github.com/xming521/picture/blob/master/job1.jpg)
## 鸣谢
鸣谢 server酱、 pyechart 、腾讯云等的产品或技术支持
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
python实现招聘岗位信息聚合系统,拥有爬虫爬取、数据分析、可视化、互动等功能.zip基于数据技术的互联网行业招聘信息聚合系统 本系统以Python为核心,依托web展示,所有功能在网页就可以完成操作,爬虫、分析、可视化、互动独立成模块,互通有无。具体依托python的丰富库实现,爬虫使用Requests爬取,使用lxml、beautifulsoup4解析。使用numpy、pandas分析数据,使用pyecharts做可视化,使用Flask进行web后台建设。数据通过csv、MySQL、配置文件来进行存储互通。 为了拓展功能编写了定时器,微信推送,为了适应团队合作编写了函数注册器,参数迭代器。爬虫数据来自前程无忧、齐鲁人才网、猎聘网、拉勾网等等网站,需要的基本数据一应俱全。 python实现招聘岗位信息聚合系统,拥有爬虫爬取、数据分析、可视化、互动等功能.zippython实现招聘岗位信息聚合系统,拥有爬虫爬取、数据分析、可视化、互动等功能.zippython实现招聘岗位信息聚合系统,拥有爬虫爬取、数据分析、可视化、互动等功能.zippython实现招聘岗位信息聚合系统,拥有爬虫爬
资源推荐
资源详情
资源评论
收起资源包目录
python实现招聘岗位信息聚合系统,拥有爬虫爬取、数据分析、可视化、互动等功能.zip (54个子文件)
WorkAggregatio-master
__init__.py 0B
install_package.bat 31B
spider
tool
__init__.py 0B
timer.py 1015B
log.py 850B
spider_main.py 15KB
conf.ini 5KB
.gitattributes 102B
my.ini 645B
data
test.csv 388KB
analysis
input_data.py 3KB
__init__.py 77B
interaction.py 3KB
analysis_main.py 860B
analyze_data.py 25KB
analyze_spark.py 12KB
process_data.py 15KB
create_chart.py 13KB
templates
show.html 4KB
us.html 2KB
interaction.html 12KB
index.html 2KB
test.html 337B
spider.html 5KB
server.py 2KB
requirements.txt 250B
.gitignore 50B
static
webjs
mdui.min.js 63KB
jquery-3.3.1.min.js 85KB
css
mdui.min.css 278KB
c1.css 4KB
html
bing.html 706KB
qiu1.html 824KB
qiu2.html 824KB
qiu3.html 824KB
icon
robot.png 8KB
3.png 3KB
home.png 802B
QR.jpg 37KB
1.png 5KB
us
2.jpg 28KB
1.jpg 59KB
5.jpg 8KB
3.jpg 102KB
4.jpg 57KB
qq.png 951B
4.png 8KB
us.png 1KB
2.png 10KB
conf
my.ini 450B
一万.ini 14KB
conf.ini 17KB
README.md 3KB
js.7z 7.01MB
共 54 条
- 1
资源评论
猰貐的新时代
- 粉丝: 1w+
- 资源: 2571
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功