深度视频对于动态3D视频的表示至关重要,而动态3D视频是快速增长的3D视频应用程序的基础。准确性和时间一致性问题是深度视频研究的主要关注点。在以前的工作中,具有全局优化的立体声匹配方法可以生成准确且密集的深度视频。然而,全局优化是计算密集型的,并且在优化过程中难以获得时间一致性。在本文中,提出了一种贝叶斯框架来以有效的方式生成精确的和时间上一致的密集深度视频。首先,使用来自不同视点的3D视频中的空间和时间相关性来生成深度候选,然后通过提取的特征进一步测量这些相关性。这些特征被用来估计我们的贝叶斯框架中初始深度的风险。然后,设计了一种两阶段决策方法,以最小的风险概率在初始深度图中选择深度值的候选者。最后,深度视频通过具有全局优化功能的改进的图割算法进行精炼。设计了一种改进的图构造方法并将其应用于图割算法,以减少图中的节点数,从而减少全局优化的复杂度。实验结果表明,与传统方法相比,该算法可以实现准确的深度视频,效率高达68.14%。