典型文献
基于Hadoop的分布式视频转码系统研究
文献摘要:
当下由于视频内容多样化的爆发式变革,产生了多种音视频封装格式和编码格式,为解决用户高清视频多端下载收看及相应格式转换需求,应对庞大的数据量计算作业,需整合高效计算机资源.该文提出了一种基于Hadoop的分布式视频转码方案,采用分布式文件存储系统HDFS进行大型视频文件的存储,通过MapReduce编程框架结合FFmpeg开源软件,将视频数据处理划分为Map和Reduce两个阶段,把庞大的数据量分布到多处理节点分析.调用转码模块,减少开发人员工作量,分布式完成视频转码功能.该方案充分利用了数据集群的并行计算能力,突破了单机视频转码技术的发展瓶颈.通过实验验证得出,相比于单一节点进行视频转码,此系统的转码速度仅在2台数据节点的分布式集群中就获得了50%的提升.通过此系统可以为各类终端用户按各自需求提供易于使用、开放便捷、快速高效的视频转码服务.
文献关键词:
Hadoop;分布式处理;视频转码;HDFS;FFmpeg
中图分类号:
作者姓名:
邢艳芳;周舒琪
作者机构:
南京传媒学院,江苏 南京 211172
文献出处:
引用格式:
[1]邢艳芳;周舒琪-.基于Hadoop的分布式视频转码系统研究)[J].计算机技术与发展,2022(05):58-62
A类:
B类:
Hadoop,视频转码,视频内容,爆发式,音视频,封装格式,编码格式,高清视频,多端,端下,下载,收看,格式转换,数据量,算作,高效计算,文件存储,存储系统,HDFS,视频文件,MapReduce,编程框架,FFmpeg,开源软件,视频数据处理,多处,节点分析,调用,开发人员,人员工作,并行计算,计算能力,单机,发展瓶颈,单一节点,台数,数据节点,终端用户,快速高效,分布式处理
AB值:
0.417449
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。