8月21日消息,近日,在北京国际广播电视展览会(BIRTV)期间,英伟达在线上沟通会中分享了英伟达解决方案在广播电视行业的实际应用案例。
英伟达借助游戏起家,逐渐在HPC(高性能计算)、人工智能等方面进行了各行各业的应用覆盖。BIRTV是中国最具权威的广播电影电视综合设备展览会,英伟达连续多年参展,表现了其对广电传播行业的重视。
英伟达在计算机图形和人工智能领域已经有很成熟的技术,通过与国内外行业领导者进行合作,英伟达在广电传播领域有着很多落地的实际应用。
英伟达专业可视化亚太区业务主管沈威说,在疫情影响下,广电内容的需求大幅度增长,且质量要求越来越严苛。5G、大数据、AI的全面推行正在重新“定义”广电行业,与此同时,广电行业对技术、以及硬软件成本的要求随之提升。
随着英伟达全新一代GPU架构——图灵Turing架构的问世,新的AI应用可以提升画面的分辨率,为画面降噪、插帧等,电视台开始越来越多地使用基于英伟达AI的应用,比如在体育比赛中对成绩实时分析、对大量的视频内容进行管理、在直播中创建虚拟图像等。
有一个细节值得注意,在Webex上召开的沟通会中,与会人员都使用软件更换了自己的参会背景,这种实时背景更换的技术就可以依靠英伟达的AI实现。
关心英伟达的用户近期最“眼熟”的要数英伟达新推出的旗舰A100GPU,智东西对A100是否具有今天英伟达着重呈现的QuadroRTXGPU一样在广电方面做出贡献的功能提出了问题。
英伟达中国区高级技术市场经理施澄秋对这一问题进行了回答,他说:“A100的架构目前暂时发布的产品还主要是针对AI和高性能运算部分,在专业可视化领域还没有基于这个架构的产品,目前为止Turing架构的RTX系列仍是现阶段针对专业图形可视化领域,以及广电领域最高级的、功能最多的GPU。”
一、AI增强电视报道的沉浸感
在电视中我们经常看到,在实施转播时会有一些特效出现,而流畅的实时转播和快速定位都需要显卡的支持。
英伟达Quadro产品部门高级解决方案架构师宋毅明在演讲中说,英伟达在AI领域的布局比较广泛,比如英伟达的AI在广电应用中可以统计体育比赛中传球、出球之类的数据,还能对爆炸性的互联网应用进行标签分类。英伟达的深度学习、机器学习的算法可以支持这些功能的流畅运行。
在直播中,宋毅明放出了一段虚拟演播室的视频,在虚拟演播室呈现出的图像中,主持人似乎真正处于所报道的“台风”新闻场景内,受众也可以更深刻的沉浸于新闻内容。
除了“车从天上来”的场景降临,随着新闻的播报,整个演播室同样遭到了“台风侵袭”,被破坏得不成样子。
虚拟的场景通过电脑技术合成,叠加了字幕和特效。以往这些画面都需要提前录制或进行预渲染,如今使用英伟达的技术可以直接在直播中叠加特效画面。
在实时的上海《英雄联盟》比赛中,站在主持人身旁观看比赛的游戏人物“阿塔丽”的呈现应用到了英伟达GPU。这个3D的虚拟人就像亲临现场,还可以和现场的主持人互动。
施澄秋在沟通会上说,不同的用户、不同的形式、正在蔓延的4K趋势等推动互联网打破了以往的瓶颈。以往的录播,甚至是无法提供更多互动形式的直播都不足以满足用户当下的需求。
如今的广电不仅需要提供更高的质量,还需要提供更多的互动形式。5G的出现使降低延迟成为了可能,供给方和用户未来将会实现更方便的互动。
广电的使用方式和流程发生了很多改变,在直播中加入虚拟角色、通过流媒体形式进行大数据推送等,成为了提升信息吸引力的新趋势。
此外,以往广电播出内容审查、校验往往会花费大量的时间,而依靠英伟达的RTX平台,搭配上广电内容播出的整个流程,不同阶段、不同流程的工作人员可以在工作流中实时互动沟通,甚至能够同步修改调整内容,大大节约了时间,节省了物料成本。
二、老电影翻新,马赛克变4K画质
英伟达还正在致力于用AI去除噪点,提升分辨率。这一技术可以应用于将老电影生成更高的分辨率。
例如,拿出一张老的影片,英伟达的AI可以重新给黑白的影片上色,将分辨率提高到4K或1080P,甚至未来可以做到8K。
英伟达NGX是一种使用深度神经网络和深度学习框架下的软件开发套件,可以自动在画面中添加帧,对画面进行降噪、美化,甚至补充残缺的像素。
举例来说,如果想创造一幅“千军万马”的图画,以往设计师需要画一匹马进行无限复制,或是耗费大量精力进行绘画。英伟达的NGX则可以通过定义“马”“颜色”等标签,就能一键生成栩栩如生的“千军万马图”。
英伟达的AI技术还可以做超分辨率以及慢动作。
以往做慢动作需要使用超高帧率的摄像机捕捉画面,对应不同的广播制式回放。但是如今UGC(用户生成内容)越来越多,广电设备如果用传统方式对手机拍出的画面进行慢动作加工,极易出现“卡成PPT”的“废片”。
英伟达的AI可以在此基础上进行插帧,生成帧间像素,呈现出的视频明显在视觉上看起来会更柔和。
英伟达利用AI重建技术将修复帧的速度大大提高,以往一天只能修复2~3帧的重大活动视频,使用英伟达的AI一天就可以修复百万帧。
此外,在视频编辑中,以往使用CPU进行编辑的图像会非常卡顿,实时性很差。但是英伟达和强氧科技联合推出了一款应用在“达芬奇”软件中的工具:达芬奇调色板,可以支持实时编辑8K的场景,即时对图像进行加工。
达芬奇调色板利用英伟达图灵Turing架构的QuadroRTXGPU,可以基于AI把不需要的物体自动移除,也能进行匹配内容、做人脸检测、面光提升等操作。
在Zoom之类的在线会议中,我们能看到的实时背景、实时风格的转换,甚至是通过人脸带动虚拟表情,都是通过AI来做的。英伟达的AI可以带动虚拟人的技术为设计师节省了很多时间成本,呈现的效果也更加逼真。
英伟达还与Adobe合作,开发了AdobeSensei软件,这个软件其中一个用途大大贴合目前竖屏视频的需要。AdobeSensei中的一个功能可以自主追踪画面主体,将up主上传的横屏视频自动截成竖屏。
不同的领域中的应用需要不同的软件,用户可以依据自己用于云端或影视片加工等场景的需要,挑选适合自己的显卡。
三、Mellanox高清视频解决方案:SDI转向IP
英伟达Mellanox高级市场经理陈龙说,在1080P格式使用以前,广电行业里面视频的传输是靠SDI的方式来进行的。随着现在4K、8K、超高清业务的兴起,整个传输带宽都在极剧的膨胀,传统的SDI视频传输方式遇到了瓶颈。
首先,为了实现4K的传输,所使用的传输线带宽需要达到原来的14倍,且组网复杂成本高昂。
如果换成12GSDI,由于本身高速信号在SDI铜缆里面的传输距离跟速率是成反比的,那么大概只有50米的传输距离远远不能满足在广电行业里面视频传输的需要。
从IP解决方案来看,近几年带宽已经一跃到400G,不仅成本上比现有的定制化SDI传输方式更低,带宽也更高,因此陈龙说英伟达判断SDI转向IP是一个大概率事件。
但是这就产生了一个新的问题,即当传输管道扩宽后,终端的CPU处理这些协议栈的负载压力会大幅度的上升。
这个时候Mellanox基于在网卡行业传统的优势强项,可以做硬件卸载,把厚重的网络协议栈处理切换到网卡上来加速整个网络协议栈的处理,降低CPU的负载。
Mellanox解决方案会把SDI转到IP化最后一公里的问题解决突破掉,轻松实现SDI转入到IP化的解决方案,同时又降低了CPU的功耗,降低了整个服务器的购置成本,大大的降低了从SDI切换到IP的采购门槛。
此外,陈龙还在演讲中介绍了英伟达核心软件的解决方案Rivermax。Rivermax主要解决的是SDI转IP化之后的传输标准问题,即在PacketPacing、KernelBypass、PacketAggregate、CloudReady四种特性下实现IP的传输。
英伟达的合作伙伴当虹科技、强氧科技、博彩传媒、新奥特、EpicGames的工作人员均在沟通会上畅谈了与英伟达合作带来的高质量的产品呈现,未来更多的技术会投入到广电行业中,用户的体验感也会飞速提升。
结语:软硬件合力加持广电应用
在沟通会中,英伟达介绍并演示了其在广播电视行业的产品和解决方案,包括英伟达图灵Turing架构的QuadroRTXGPU和RTX平台让实时8K录制变为现实,基于深度学习方法的英伟达NGXSDK让开发者能够轻松将AI功能集成到应用程序当中,以及英伟达RTX服务器能够实现实时离线渲染以及提供虚拟工作站等性能。
对于战略问题的回答中,英伟达的市场开发专家何展说未来英伟达还会有更好的产品问世,将会面向广电行业各种应用服务。