# -*- encoding: utf-8 -*-
"""
@File : python_test.py
@Modify Time : 2023/12/30 22:36
@Author : Allen.Yang
@Contact : MC36514@um.edu.mo
@Description : 介绍Python基础知识
"""
# 变量
float_variable = 1.0 # 浮点型
int_variable = 1 # 整形
string_variable = "Hello, i am fine."
print(f"float_variable 是:{float_variable}, int_variable 是:{int_variable},二者相加结果是:{float_variable+int_variable}")
# 字符串运算
str_original = "I come from China."
# 空格也算字符,会占位
# 最大取值范围不包括该值
# 第三个参数代表步长step,可以省略
print(str_original[1:5:2])
print(str_original[-5:-1])
str_original_2 = "What about u?"
# 字符串相关操作
print(str_original + str_original_2)
print(str_original * 2)
print("*" in str_original)
print("I" in str_original)
# 字符串函数操作
# 统计子字符串在原字符串中出现次数
print(str_original.count("come"))
print(str_original.find("me"))
print(len(str_original))
print(str_original.upper())
print(str_original.replace("come","coooool"))
print(str_original.split(" "))
# 列表
list_A = ['i','am',123,[1,2,3]]
print(list_A)
print(list_A * 3)
print([1,2] * 3)
print( 3 in [1,2,3])
for x in [1,2,3]:
print(x,end=" ")
print()
# 列表操作函数
# 列表末尾添加对象
list_A.append("1")
print(list_A)
# 统计某个元素在列表中出现的次数
print(list_A.count(123))
# 在列表中扩展另一个列表中的元素
list_A.extend([1,2,3])
print(list_A)
# 从列表中找出某一个值第一个匹配项索引的位置
print(list_A.index(1))
# 将对象插入列表
list_A.insert(0,"Yang")
print(list_A)
# 弹出列表元素
pop_value = list_A.pop(2)
print(pop_value)
print(list_A)
# 排序
list_string = ['a','cb','ca']
list_string.sort()
print(list_string)
list_num = [3,2,5,7,9]
list_num.reverse()
print(list_num)
list_num.sort(reverse=False)
print(list_num)
list_num.sort(reverse=True)
print(list_num)
# 字典变量
# 字典形式为 key=>value,键:值
dict_lastName = {1:"Yang",2:"Wang",3:"Yu",'haha':"Kong",5:"Zhao"}
dict_lastName[100] = 'Cat'
print(dict_lastName['haha'])
dict_lastName['haha'] = "123456"
print(dict_lastName)
# 删除键
del dict_lastName[1]
print(dict_lastName)
# 打包创建字典
dict_test = {}
list_key = ['name','phone','address']
list_value = ['Allen',123,'China']
key_value_pairs = zip(list_key,list_value)
dict_result = dict(key_value_pairs)
print(dict_result)
# get返回值,找到name1键则返回name1键对应的值,不然返回后面的默认值
print(dict_result.get('name1',"aaa"))
# 删除字典里的值
item = dict_result.pop('name')
print(item)
print(dict_result)
# match case 用法
status = 40
match status:
case 400:
print("status is 400")
case 401:
print("status is 401")
case 402:
print("status is 402")
case 403:
print("status is 403")
case _:
print("wrong")
# while else用法
count = 0
while count < 5:
print (count, " 小于 5")
count = count + 1
else:
print (count, " 大于或等于 5")
# for else用法
for x in range(6):
print(x)
else:
print("Finally finished!")
# break和continue
# break直接跳出所有循环
# continue只跳过当前轮次,继续进行后续的循环
n = 5
while n > 0:
n -= 1
if n == 2:
break
print(n)
print('循环结束。')
n = 5
while n > 0:
n -= 1
if n == 2:
continue
print(n)
print('循环结束。')
# 推导式
names = ['Bob','Tom','alice','Jerry','Wendy','Smith']
new_names = [name.upper() for name in names if len(name)>3 and name != 'Jerry']
print(new_names)
dic = {x: x**2 for x in (2, 4, 6)}
print(dic)
# 函数,返回更大的值
# 这里面的a,b是形式参数
def max(a, b):
if a > b:
return a
else:
return b
num1 = 4
num2 = 5
print(max(num1, num2))
# lambda表达式,lambda 参数1,参数2: 运算
x = lambda a, b : a * b
print(x(5, 6))
# map联用,对列表里每一个元素应用函数运算
numbers = [1, 2, 3, 4, 5]
squared = list(map(lambda x: x**2, numbers))
print(squared)
# filter过滤
numbers = [1, 2, 3, 4, 5, 6, 7, 8]
even_numbers = list(filter(lambda x: x % 2 == 0, numbers))
print(even_numbers)
# reduce对list元素进行累计计算
from functools import reduce
numbers = [1, 2, 3, 4, 5]
product = reduce(lambda x, y: x * y, numbers)
print(product)
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
资源推荐
资源详情
资源评论
收起资源包目录
Python及爬虫学习.zip (42个子文件)
SJT-code
regex.ipynb 9KB
爬虫基础.assets
image-20240101204023103.png 513KB
image-20240111164421422.png 48KB
image-20240101205148567.png 39KB
image-20240111170032090.png 278KB
image-20240111233403102.png 160KB
image-20240111165733839.png 172KB
image-20240111225709158.png 215KB
image-20240101224916584.png 30KB
image-20240101224846752.png 28KB
image-20240111164949384.png 298KB
image-20240111231906332.png 82KB
image-20240101224611973.png 350KB
image-20240102151629221.png 464KB
image-20240111170215079.png 162KB
image-20240102152954654.png 393KB
image-20240101202850266.png 880KB
image-20240101210146615.png 118KB
image-20240112110855741.png 111KB
image-20240101205547611.png 41KB
image-20240101204929451.png 41KB
image-20240111163308501.png 299KB
image-20240101224423171.png 477KB
image-20240102152056383.png 320KB
image-20240101224942907.png 28KB
image-20240111225507119.png 280KB
github_crawel.py 3KB
data.csv 1KB
爬虫基础.md 24KB
python基础.ipynb 10KB
myCrawel
scrapy.cfg 259B
myCrawel
__init__.py 0B
pipelines.py 1KB
start.py 275B
spiders
__init__.py 161B
blogCrawel.py 1KB
data123.csv 20B
items.py 336B
settings.py 4KB
middlewares.py 4KB
Python 教学大纲.md 1KB
python_test.py 4KB
共 42 条
- 1
资源评论
JJJ69
- 粉丝: 6001
- 资源: 5593
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- 基于UC3842+LTS26Q1565A设计PC机充电器 硬件(原理图+PCB)工程文件.zip
- Hive SQL经典面试题,大数据SQL经典面试题
- Qt实现喷码器代码,实现二维码、条形码、图形的旋转、移动等
- 基于LM324芯片比较器传感器模块AD09设计硬件(原理图+PCB)工程文件.zip
- HTTP请求 - 记一笔-添加记账.jmx
- 2205040245凡永超硬间隔svm.ipynb
- Qt喷码器demo,演示软件,不是代码
- 目标跟踪-基于目标中心点同时进行目标检测+目标跟踪算法实现-项目源码-优质项目实战.zip
- Python《文本特征分析-全唐诗数据挖掘及分析 》+源代码
- Netron-Setup-4.5.0
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功