自动编码器模型在深度学习的成功中起着至关重要的作用。 在预训练阶段,自动编码器学习一种表示形式,该表示形式可以在深度学习的微调阶段帮助改善整个神经网络的性能。 但是,学习的表示形式并不总是有意义的,并且网络不一定会通过这种表示形式获得更高的性能,因为自动编码器是在不受监督的情况下训练的,而无需知道微调阶段所针对的特定任务。 在本文中,我们提出了一种新颖的方法来训练自动编码器,方法是在传统的重建成本函数中添加明确的指导术语,以鼓励自动编码器学习有意义的功能。 特别地,指导术语是关于由自动编码器学习的表示的分类误差,并且有意义的表示意味着使用该表示作为输入的网络在分类任务中具有低的分类误差。 在我们的实验中,我们表明附加的显式指导术语可帮助自动编码器提前了解预期目标。 在学习期间,相对于数据集上的特定受监督任务,它可以通过更好的泛化使学习达到最低限度。 在一系列图像分类基准测试中,我们获得的结果与具有相同配置的基准自动编码器相同或更好。