基于Hadoop的视频转码优化的研究1

preview
需积分: 0 0 下载量 125 浏览量 更新于2022-08-03 收藏 2.52MB PDF 举报
【基于Hadoop的视频转码优化的研究】 随着“互联网+”的发展,视频转码的需求日益增强,特别是对转码速度、质量和可用性的要求不断提高。在2015年的网络流量统计中,视频流量占据了主导地位,这使得视频转码处理的高效、高质量和高可用性成为研究的核心问题。本文主要探讨了利用Hadoop进行视频转码优化的方法。 文章构建了一个基于云计算的视频转码平台,该平台采用了IaaS(基础设施即服务)、PaaS(平台即服务)和SaaS(软件即服务)三层结构。IaaS层选择了Amazon基础设施云,PaaS层利用Hadoop进行分布式处理,SaaS层运行高性能的视频转码应用程序。其中,文章提出了一种结合FFmpeg和MapReduce技术的优化策略,以实现视频转码的高效运行。 为了提高可扩展性和解决MapReduce架构的局限性,本文创新性地提出了S_MapReduce结构,并引入虚拟IP机制。此外,设计了心跳包流程以改进负载均衡,确保整个系统能稳定高效地处理任务。同时,针对MapReduce的工作流和数据流进行了优化,提升了计算架构的效率。 文章的主要工作包括:(1)对FFmpeg进行瘦身,根据特定场景和条件去除冗余部分,实现了针对S_MapReduce的NALU设计,并引入防竞争机制,防止转码过程中的竞争和错误;(2)设计了APU格式,配合MapReduce进行分块处理,优化了解码流程,提高了转码效率;(3)开发了二次校验算法,确保数据的完整性和有序性。 实验部分,作者使用19个节点构建了转码云环境,通过多层次、多维度的实验数据验证了方法的有效性。实验结果显示,相较于未优化的FFmpeg,本文提出的方案在效率上有显著提升,且随着数据量的增长,效率提升更为明显。比较多点和单点架构,当单个文件大小为10GB时,本文方案的效率提升达到了对照方案的16.4倍。 关键词:视频转码,虚拟IP,FFmpeg,Hadoop,MapReduce