实时互动场景下,音频的技术变迁与机遇
本文首发于InfoQ,由声网Agora开发者社区与InfoQ联合策划,并由InfoQ审校。
音频技术中有很多细节会影响到实时互动的体验。随着技术和应用场景的变化,音频也正在与更多的学科、技术结合。在实时互动场景下,哪些因素会影响音频的体验?相比于视频技术,音频技术是否发展较慢?面向RTC场景,音频技术又需要作出哪些改变?......为了解答这些问题,我们采访了声网Agora音频体验与工程总监陈若非,请他来聊一聊在实时互动场景下音频技术的变迁与机遇。
Q:相对于研究网络架构、大前端等方面的工程师来讲,研究音频的工程师比较少。具体来讲,音频工程师都会研究哪些相关技术?
陈若非:声音是信息和情感传递的载体,所以音频相关的研究基本会围绕如何让信息和情感更好的被传递和感知理解展开的。音频领域相对专业细分,但是我们细挖一下就会发现音频相关的研究方向其实很多,涉及到的交叉学科也很广。从交互对象来说我们可以分为两类:人机交互的音频和人人交互的音频。从交互的实时性来分,又可以分成实时的交互和非实时的交互。人机交互主要研究如何让机器更好的理解声音和生成声音,通过ASR、MIR、TTS等技术来实现人类希望机器完成的任务。人人交互的部分更多和人的感知系统关联,其优化目标会围绕如何让人更好的感知音频来展开。实时的人人音频交互又在此基础上提出了更多的约束条件,优化需要用更低的延时、更小的计算量和因果系统下展开。我所在的声网就主要聚焦于实时互动音频领域的研究,所以我们会从采集播放、编解码、前后处理、传输的全链路去研究如何在尽可能低的延时和计算量下提供更好的音频互动体验。
Q:聊技术变迁之前,首先梳理一下概念,在实时互动的场景下,哪些因素会影响音频的体验?
陈若非:实时互动音频是端到端,嘴到耳的体验,所以全链路上所有的组成部分都有可能影响音频体验。我们可以从采、播、滤、压、传五个方面去分解技术对音频体验的影响。首先说采集,不同麦克风的声学属性差异就对音频体验有决定性的影响,从拾音的距离,方向性到精度。被拾取的声音信号经过模数转换,信号采样也会造成声音的损失,采样率越高声音的细节就会保留的更好。所以一个高质量的麦克风会从源头上提供更好的音频源。类似的,一个高质量的播放设备可以更好的保留更多声音细节。然后前后处理是音频链路上非常重要的一环,大家常听到的3A技术都属于这个范畴,前后处理对原始采集的信号或者即将要播放的信号做二次处理,来滤除其中的干扰信号,比如回声、噪音、杂音、啸叫等,同时对目标的音频做音量和听感上的增强。另外在一些音效玩法里,我们也会通过对信号的处理实现变声、美声等特定声音效果。再说下编解码和传输,这两者是强耦合的。原理上编码的采样率和码率越高,声音的保真度就更好,听端的体验也更好。但现实中网络的带宽是有限制的,还会经常出现丢包抖动等不利情况。好的编解码算法可以通过对声学模型和信息冗余的深入理解,在相对低的码率下实现高品质的声音保留,从而保证在各种弱网情况下的稳定表现。同时我们也需要通过开发信源信道的弱网对抗技术,在保证低延时的基础上,减少丢包抖动带来的听感影响。
Q:行业中有种看法,认为音频技术相对于视频技术,似乎发展会稍慢一些?你怎么看待目前音频技术的发展?
陈若非:技术的进步都是需求推动的。电话时代的音频技术曾经经历火热的发展,一些经典理论如线性预测、自适应滤波,很好的解决了一些基础可用的问题,很多技术到今天还在被沿用。近几十年VOIP的技术也得到了长足的发展,我们今天看到VOIP的分钟数能在通信领域占据越来越大的份额,背后也离不开音频研究人员长期的扎实工作和持续进步。音频需要较高的技术门槛,全链路的木桶效应明显,设备耦合重碎片化严重,改进主观不易被感知,这些因素都决定了音频想要出成果需要坐的住冷板凳,需要长期主义的坚持。
近些年AI技术的兴起给音频注入了新的活力,也给很多长时间不好解决的问题提供了新的思路。人机语音交互成为了一个音频领域新的热点,相关的技术也蓬勃发展,目前在识别、合成等领域都取得了长足的进步。而在最近的几年,也看到了不少AI技术和RTC领域结合的实践成果,让人看到了进一步提升音频体验的巨大空间。从外部环境来看,在看腻了千人一面的直播后,越来越多的人开始喜欢心理包袱更小,想象空间更大的音频社交,近期的行业里也开始出现新的浪潮。相信在这种内外因的结合下,会有更多的人开始研究实时互动音频的体验,也非常期待这个行业会给大家带来不一样的新体验。
Q:从实际来看,目前音频在实时领域还存在哪些技术挑战?
陈若非:实时互动音频领域还有很多技术挑战需要我们的攻克。我这里提两个大点。第一,碎片化。传统的手机厂商是一台台调试算法和逐一通过声学测试出厂的。如果我们要在不同设备、环境、网络条件下提供一致性的高质量音频体验,我们就需要寻找新的突破。在接下来万物互联的时代,这种需求会愈加强烈,而这方面技术的突破会带来巨大的价值。第二,主观性。音频体验是一个非常主观的存在,每个人的感知差异和喜好也迥异。我们需要找到更好的方法来匹配这种个性化的喜好和提供更好的量化评价体系。
Q:基于你对业界、学界的观察,你认为音频技术面向RTC场景,接下来需要作出哪些改变?(如算法、技术的结合等)
陈若非:我认为实时互动音频的未来应该有下面三个部分。第一,AI和信号处理的深度融合。经典的信号处理和声学模型已经能帮我们解决很多问题,当然也不少解决不好的问题。在AI的有效融合下,可以有效的补充传统算法的不足,在合理的代价下更好的解决我们的问题,而非简单视AI为灵丹妙药包治百病。第二,符合时代的评价标准。目前很多音频标准是给通讯设计的,真正如聚一堂的互动体验需要对应的评价标准,如何更好的评价互动性,沉浸感是我们需要去探索的地方。第三,真正的沉浸感和伴随感。人们开始不满足于单纯的信息交互,进一步的追求面对面的互动体验和情感伴随,而随着网络和设备条件的进一步成熟,这种未来也成为可能。音频全链路都需要升级,从声场的采集到还原,甚至增强现实,来创造出真正沉浸式伴随的体验,这也会将会是一条漫长的探索之路。我们在声网一直致力于探索这些长年存在的行业难题,也欢迎各路有想法有追求的朋友联系我,共同交流探索,共同敲开未来音频之门。
采访嘉宾介绍:
陈若非,声网Agora音频体验与工程总监。负责基础音频技术的架构和研发,主要研究基于模型重建的语音增强技术,对回声消除,降噪,增益控制,多麦,音效处理,丢包隐藏等语音技术有丰富经验。曾任职YY基础技术研发部门,担任IEEE权威语音期刊和会议专业reviewer。