from lxml import etree
from cookies_and_headers import cookies, headers
# def get_chap_dict(homep,client):
# response = client.get(homep, cookies=cookies, headers=headers)
# url_prefix = r"https://cn.baozimh.com"
# html = etree.HTML(response.text)
# result_pages = html.xpath("//a[@class='comics-chapters__item']/@href")
# result_names = html.xpath("//a[@class='comics-chapters__item']//span/text()")
# result_pages = [url_prefix + i for i in result_pages]
# resp = dict(zip(result_names,result_pages))
# return resp
# 重写,因为接入flaresolverr
post_body = {
"cmd": "request.get",
"url": "https://www.petsathome.com/",
"maxTimeout": 60000,
}
def get_chap_dict(homep, client, session):
post_body = {"cmd": "request.get", "url": homep, "maxTimeout": 60000}
if session == None:
response_raw = client.post(
"http://127.0.0.1:8191/v1",
cookies=cookies,
headers=headers,
json=post_body,
timeout=None,
)
else:
post_body = {
"cmd": "request.get",
"url": homep,
"maxTimeout": 60000,
"session": session,
}
response_raw = client.post(
"http://127.0.0.1:8191/v1",
cookies=cookies,
headers=headers,
json=post_body,
timeout=None,
)
response = (response_raw.json())["solution"]["response"]
url_prefix = r"https://cn.baozimh.com"
html = etree.HTML(response)
result_pages = html.xpath("//a[@class='comics-chapters__item']/@href")
result_names = html.xpath("//a[@class='comics-chapters__item']//span/text()")
result_pages = [url_prefix + i for i in result_pages]
resp = dict(zip(result_names, result_pages))
challengesolve = (response_raw.json())["solution"]
return resp, challengesolve
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
资源推荐
资源详情
资源评论
收起资源包目录
包子漫画爬虫.zip (4个子文件)
SJT-code
main.py 2KB
one_chap_jpg_lists.py 2KB
get_chap_list.py 2KB
cookies_and_headers.py 1003B
共 4 条
- 1
资源评论
JJJ69
- 粉丝: 6352
- 资源: 5918
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- java项目,课程设计-#-ssm-mysql-数据结构课堂考勤管理系统.zip
- 汽车起动机市场:2023年我国起动机的市场规模已高达480亿元人民币
- java项目,课程设计-#-ssm-mysql-商品信息分类管理系统.zip
- DataGuard容灾配置过程-for-Oracle11gR2
- HPSocket.Net库文件以及使用说明
- express 基础框架搭建
- Oracle DataGuard 安装配置详解:从主备环境搭建到故障切换
- 前端封装video.js、对接海康插件npm包
- 2024年下半年网络工程师案例分析真题答案解析-网络设计与故障排除
- 打印机清零 爱普生XP-4105 系列清零 清除提示无边框不能打印 亲测可用
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功