没有合适的资源?快使用搜索试试~ 我知道了~
Synchronous_Teaching_Knowledge_Distillation:知识提炼(KD)将区分性知识从一个大型而...
共5个文件
py:3个
gitignore:1个
md:1个
需积分: 31 0 下载量 18 浏览量
2021-04-08
11:52:24
上传
评论
收藏 13KB ZIP 举报
温馨提示
Synchronous_Teaching_Knowledge_Distillation 知识提炼(KD)将区分性知识从一个大型而复杂的模型(称为“教师”)转移到一个规模较小,速度较快的模型(称为“学生”)。 现有的高级知识提炼方法仅限于固定特征提取范式,这些范式捕获教师的结构知识以指导学生的培训,但往往无法为学生获得全面的知识。 为此,我们提出了一种新的方法,同步教学知识提炼(STKD),以整合在线教学和离线教学,以向学生传递丰富而全面的知识。
资源推荐
资源详情
资源评论
收起资源包目录
Synchronous_Teaching_Knowledge_Distillation-main.zip (5个子文件)
Synchronous_Teaching_Knowledge_Distillation-main
.gitignore 2KB
main_svhn.py 28KB
utils.py 7KB
README.md 659B
tools.py 4KB
共 5 条
- 1
资源评论
许吴倩
- 粉丝: 23
- 资源: 4547
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功