本文介绍了一种基于改进卷积神经网络的在线视觉目标跟踪方法,旨在解决传统神经网络跟踪方法中易丢失历史信息的问题。该方法利用卷积神经网络(CNN)来表示目标物体的外观,并通过树结构组织多个CNN协作来估计目标物体的状态。这种方法的关键在于,它能够有效地处理物体外观的多模态变化,同时保持模型的可靠性和适应性。
算法采用了一个由三个卷积层和三个全连接层组成的CNN架构,类似于VGG-M网络,但规模较小,以适应在线跟踪的效率需求。卷积滤波器的设计参考了ImageNet中的VGG-Net模型,以增强特征提取能力。输入图像被调整为75x75像素的RGB格式,与最后一层卷积层的接收域大小匹配。
在跟踪过程中,算法利用树结构维护不同分支的多个CNN,以应对目标物体外观的多种变化情况,如遮挡、光照变化等。通过树路径的平滑更新,算法能够在不影响模型可靠性的同时,适应这些变化。此外,卷积层参数的共享减少了额外的计算成本,使得多模型的优势得以充分利用。
为了进一步提高跟踪性能,算法在多模型状态附近进行采样,然后依据加权平均确定最佳样本估计值。这种方法有助于在目标物体外观快速变化时,保持跟踪的稳定性。相比于传统的跟踪算法,该方法在处理遮挡、光照变化、突然运动和变形等挑战性场景时,表现出更好的在线跟踪性能。
实验结果证明,提出的跟踪算法在与现有算法的比较中,显示出优越的跟踪效果。通过利用改进的CNN模型和树结构的更新策略,该方法不仅能够捕捉目标物体的动态外观变化,还能有效地避免模型过时或丢失历史信息,从而提高了在线视觉目标跟踪的准确性和鲁棒性。
这项工作结合了深度学习和树结构,为视觉目标跟踪提供了新的解决方案。通过对CNN模型的改进和优化,算法能够更好地适应复杂环境下的目标跟踪任务,为未来相关领域的研究提供了有价值的参考。