Page 41 - AV_202310
P. 41
观察·事件
合在同一个大屏上显示?这个过程中有哪些技
术难点,最终呈现效果又是如何呢?
周毅华 :我们有一个强大的VPSS模块,
是为了视频分布式应用场景而专门打造的,可
以支持最多16路视频输入,这些视频可以是
JPEG2000解码出来的,也可以是H.264解码出
来的,它们分别进行裁剪、缩放后在大屏上开
窗显示,可以任意指定视频的位置和图层。
对我们来说,最大的技术难点是多路视频
开窗显示需要先把视频存入到内存(DDR3/
DDR4)的,怎么样提高内存带宽利用率,怎
么样让各个内存读写接口都能分配到合理的带
宽,保证视频能够流畅的播放。我们花费大量
的时间,去优化内存的读写效率、多接口读写
调度和带宽分配、内部buff的深度,最终达到
的效果在有限的内存带宽下,多路视频同时开
入JPEG2000解码IP,还原成视频流,再经过 窗时都能够流畅的播放。
VPSS模块进行裁剪、缩放、开窗、图层管理
等处理后,从HDMI/LVDS等视频输出接口输 LiveVideoStack:您认为未来(五年
出,在显示器上显示。 内)视频编解码技术会达到怎样的进步?
周毅华 :深压缩和浅压缩代表着编解码算
LiveVideoStack:在开发JPEG2000的 法的两种发展方向。以H.264/H.265为代表的
过程中,您有哪些心得体会?FPGA为实现部 深压缩算法,在画质不降低的情况下,追求更
署带来了怎样的帮助? 高的压缩倍数,新一代深压缩算法H.266有可
周毅华: JPEG2000标准的码率控制算法 能在5年内实现商用。而随着4K/8K分辨率的普
是一个开放性的规范,只给出了推荐方案。规 及,以及用户对高清画质和超低延迟的需求,
范推荐的码率控制方案计算量非常大,延迟也 广电领域对夹层编码的需求,也会让以JPEG
超过一帧,无法充分体现浅压缩方案的低延迟 XS和JPEG2000为代表浅压缩算法得到广泛的
特性。所以这方面我们花费了大量的心血,在 应用;同时,针对不同的应用场景,也会有新
最大程度保障画质的前提下,将延迟控制在了 的、更好的浅压缩编解码算法出现,已有的浅
半帧以内,将方案改造成非常适合视频分布式 压缩算法也会不断迭代,以满足应用需求。
应用场景。整个过程是一个不断迭代、时间跨
度长、画质不断优化的过程。 LiveVideoStack:可否透露一下贵司对
我们最大的心得体会就是:一个好的编解 FPGA及相关技术的未来展望以及后续对FPGA
码IP,一定是不断打磨出来的,不是一蹴而就 技术的应用呢?
的。因为FPGA的可编程特性,我们可以不断 周毅华 北格逻辑未来会持续在音视频领域
的、快速的更新我们的版本,让客户能够使用 深入耕耘,打造全系列的基于FPGA的浅压缩编
到最新最好的编解码IP;同时我们可以提供不 解码算法,包括JPEG2000、JPEG XS、DSC和
同处理性能的版本给客户,有直接处理8k的, Huffman-diff等等,压缩倍数从2-3倍、6-10
也有720P的,只要选合适容量的FPGA即可。 倍、15-25倍全覆盖,追求更高的画质和更低的
这些都是ASIC方案不具备的。 延迟。同时围绕着这些编解码IP,北格逻辑会
完善包括视频输入输出接口、VPSS、视频网络
LiveVideoStack:如何将不同解码器 传输协议等在内的视频类IP,客户可以使用我
(例如JPEG2000和H.264)解码出的图像混 们的IP快速搭建出自己的视频处理系统。
41