没有合适的资源?快使用搜索试试~ 我知道了~
Bert的缓存问题
0 下载量 30 浏览量
2021-01-20
11:30:42
上传
评论
收藏 36KB PDF 举报
温馨提示
试读
1页
在使用Bert做UNILM的摘要任务时,出现了一个非常奇怪的问题,之前用小数据集跑出来效果还不错,于是修改了一些训练参数(学习率,warmup等),换了一个大数据集来跑,效果很差,所以又把所有参数回滚了,并且重新换上小数据集,这时候却发现效果同样变得非常差。 尝试过重写解码部分、用modeling_bert.py中的模型链接重新下载一个模型,并在微调时使用这个新的模型训练、删除所有保存过的权重,都不行,最后怀疑bert是否存在这种缓存问题,上谷歌一查,还真有人跟我遇到相同问题,于是删除了位于**~/.cache/torch/transformers**下的所有文件,重新训练,问题(莫名其妙地)
资源详情
资源评论
资源推荐
Bert的缓存问题的缓存问题
在使用Bert做UNILM的摘要任务时,出现了一个非常奇怪的问题,之前用小数据集跑出来效果还不错,于是修改了一些训练参
数(学习率,warmup等),换了一个大数据集来跑,效果很差,所以又把所有参数回滚了,并且重新换上小数据集,这时候
却发现效果同样变得非常差。
尝试过
重写解码部分
、
用
modeling_bert.py
中的模型链接重新下载一个模型,并在微调时使用这个新的模型训练
、
删除所有保
存过的权重
,都不行,最后怀疑bert是否存在这种缓存问题,上谷歌一查,还真有人跟我遇到相同问题,于是删除了位于
**~/.cache/torch/transformers**下的所有文件,重新训练,问题(莫名其妙地)解决。
作者:成电摸鱼郎
weixin_38737565
- 粉丝: 7
- 资源: 902
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功
评论0