持续学习调查:在分类任务中避免遗忘
这是在TPAMI上发布的持续学习调查论文“持续学习调查:克服分类任务中的遗忘”的原始源代码 。
这项工作允许使用Continual Hyperparameter Framework以公平的方式比较最新技术, Continuous Hyperparameter Framework根据稳定性-可塑性困境动态设置超参数。 这解决了文献中长期存在的问题,即仅使用当前任务数据即可公平地为不同方法设置超参数(因此不使用iid验证数据,这在持续学习中是不可用的)。
该代码包含一个用于Pytorch中11种SOTA方法和4条基准的通用框架。 实施的任务增量方法是
SI | EWC | MAS | 均值/模式-IMM | LWF | EBLL | PackNet | 帽子| 创业板| iCaRL
将这些与4个基准进行比较:
联合| 微调| 调频调频| 微调
联合