没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
试读
13页
21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf21秋学期南开大学《网络爬虫与信息提取》在线作业.pdf
资源推荐
资源详情
资源评论
21 秋学期(1709、1803、1809、1903、1909、
2003、2009、2103)《网络爬虫与信息提取》在线
作业
1:Python 中线程池 map()方法第二个参数是()
A、列表
B、元组
C、字典
D、集合
答案:A
2:通过()爬取伪装成异步加载的后端渲染数据
A、正则表达式
B、Json 字符串
C、JavaScript
D、Get
答案:A
3:下面 Python 代码输出为():
def default_para_without_trap(para=[], value=0):
if not para:
para = []
para.append(value)
return para
print('第一步:{}'.format(default_para_trap(value=100)))
print('第二步:{}'.format(default_para_trap(value=50)))
A、第一步:[100]
第二步:[100,50]
B、第一步:[100]
第二步:[50]
C、第一步:[100]
第二步:[]
D、第一步:[100]
第二步:[100]
答案:B
4:Python 中若定义 object=(1, 2, 3, 4, 5),则 print(object[1:3])输出()
A、12
B、123
C、23
D、234
答案:C
5:在 Scrapy 的目录下,哪个文件负责数据抓取以后的处理工作?()
A、spiders 文件夹
B、item.py
C、pipeline.py
D、settings.py
答案:C
6:浏览器用来记录用户状态信息的数据叫
A、session
B、cookies
C、moonpies
D、selenium
答案:B
7:PyMongo 中查询所有 age > 29 的记录是()
A、collection.find({'age': {'$gt': 29}})
B、collection.find({'age'>29})
C、collection.find_all({'age': {'$gt': 29}})
D、collection.find_all({'age'>29})
答案:A
8:Redis 中往集合中添加数据,使用关键字()
A、sadd
B、add
C、append
D、sappend
答案:A
9:Redis 中如果不删除列表中的数据,又要把数据读出来,就需要使用关键字()
A、range
B、lrange
C、srange
D、pop
答案:B
10:在 Python 中,为了使用 XPath,需要安装一个第三方库()
A、lxml
B、xml
C、xpath
D、path
剩余12页未读,继续阅读
资源评论
春哥111
- 粉丝: 1w+
- 资源: 5万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功