DSP

常用音频协议介绍

2019-07-13 20:16发布

会议电视常用音频协议介绍及对比白皮书    一、数字化音频原理:声音其实是一种能量波,因此也有频率和振幅的特征,频率对应于时间轴线,振幅对应于电平轴线。通常人耳可以听到的频率在20Hz到20KHz的声波称为为可听声,低于20Hz的成为次声,高于20KHz的为超声,多媒体技术中只研究可听声部分。     可听声中,话音信号的频段在80Hz到3400Hz之间,音乐信号的频段在20Hz-20kHz之间,语音(话音)和音乐是多媒体技术重点处理的对象。     由于模拟声音在时间上是连续的,麦克风采集的声音信号还需要经过数字化处理后才能由计算机处理。通常我们采用PCM编码(脉冲代码调制编码),即通过采样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。     1、采样     采样,就是每隔一段时间间隔读一次声音的幅度。单位时间内采样的次数称为采样频率。显然采样频率越高,所得到的离散幅值的数据点就越逼近于连续的模拟音频信号曲线,同时采样的数据量也越大。     为了保证数字化的音频能够准确(可逆)地还原成模拟音频进行输出,采样定理要求:采样频率必须大于等于模拟信号频谱中的最高频率的2倍。     常用的音频采样率有:8kHz、11.025kHz、22.05kHz、16kHz、37.8kHz、44.1kHz、48kHz。     例如:话音信号频率在0.3~3.4kHz范围内,用8kHz的抽样频率(fs),就可获得能取代原来连续话音信号的抽样信号,而一般CD采集采样频率为44.1kHz。    2、量化     量化,就是把采样得到的声音信号幅度转换成数字值,用于表示信号强度。     量化精度:用多少个二进位来表示每一个采样值,也称为量化位数。声音信号的量化位数一般是 4,6,8,12或16 bits 。     由采样频率和量化精度可以知道,相对自然界的信号,音频编码最多只能做到无限接近,在计算机应用中,能够达到最高保真水平的就是PCM编码,通常PCM约定俗成了无损编码。    3、编码    一个采样率为44.1kHz,量化精度为16bit,双声道的PCM编码输出,它的数据速率则为 44.1K×16×2 =1411.2 Kbps,存储一秒钟需要176.4KB的空间,1分钟则约为10.34M,因此,为了降低传输或存储的费用,就必须对数字音频信号进行编码压缩。     到目前为止,音频信号经压缩后的数码率降低到32至256kbit/s,语音可以低至8kbit/s以下。     对数字音频信息的编码进行压缩的目的是在不影响人们使用的情况下使数字音频信息的数据量最少。通常用如下6个属性来衡量:          —比特率;          —信号的带宽;          —主观/客观的语音质量;          —延迟;          —计算复杂度和对存储器的要求;          —对于通道误码的灵敏度; 为使编码后的音频信息可以被广泛地使用,在进行音频信息编码时需要采用标准的算法。传统会议电视设备主要采用ITU-T推荐的G.711、G.722、G.728和AAC_LD等音频标准。    二、常用音频协议简介:    1、    ITU-T G.728     1992年ITU-T发布的电话声音信号编码方式推荐标准。采用LD-CELP编码方式,采样率为8KHz,以16kb/秒的速度传送声音信号,传送延迟时间极短,仅有0.625 ms 的算法编码延迟。    2、    ITU-T G.711     标准公布于1972年,其语音信号编码是非均匀量化PCM。语音的采样率为8KHz,每个样值采用8bit量化,输出的数据率为64kbps。这种窄带编码支持对300到 3,400赫兹的音频进行压缩。但虽然压缩质量不错,但是消耗的带宽相对较大,主要用于数字PBX/ISDN上的数字式电话。     3、    ITU-T G.722     ITU-T G.722标准是第一个用于 16 KHZ 采样率的标准化宽带语音编码算法,1984年被CCITT定义为标准,而且现今还在使用。.G.722 编解码器在 16 kHz 频率上接收 16 位数据(带宽从 50 Hz 至 7 kHz),并将其压缩为 64、56 与 48 Kbit/s,其总延迟约 3 ms,能够提供更好的通话质量。     G.722的优点是延时和传输位误差率非常低,且没有任何的专利技术,费用低廉。因此G.722在无线通信系统,VoIP生产商,个人通信服务,视频会议应用等广泛应用。     4、    G.722.1     G.722.1基于 Polycom 的第三代 Siren 7 压缩技术,1999年被ITU-T批准为G.722.1标准。G.722.1采用16 KHZ 采样频率,16 位数据量化,支持从 50 Hz 至 7 kHz频率范围的音频采样,并将其压缩为 32 与 24 Kbit/s。它采用20 ms封帧,提供40ms的算法延迟。     G722.1可实现比 G.722 编解码器更低的比特率以及更大的压缩。目标是以大约一半的比特率实现与 G.722 大致相当的质量。这种编码使用许可需要获得Polycom公司的授权。     5、    G722.1 Annex C     G722.1 Annex C基于 Polycom 的Siren 14 压缩技术, 采用32kHz采样频率,支持从 50 Hz 至 14 kHz频率范围的音频采样,并将其压缩为 24、32或48 kbps。采用20ms封帧,提供40毫秒演算延迟。     2005年中,国际电信联盟(ITU)批准Polycom Siren 14™    技术为14 kHz超宽带音频编码新标准。同时进入作为ITU-T建议的G.722.1 Annex C。    G722.1 Annex C具有低运算能力,低带宽的优点。适于处理语音、音乐与自然界声音。     6、    AAC-LD     AAC(Advanced Audio Coding,高级音频编码)是由Fraunhofer研究院(MP3格式的创造者)、杜比(DOLBY)试验室和AT&T(美国电话电报公司)共同研发出的一种音频压缩格式,是MPEG-2规范的一部分,并在1997年3月成为国际标准。随着MPEG-4标准在2000年成型后,MPEG2 AAC也被作为核心编码技术,并增加了一些新的编码特性,又叫MPEG-4 AAC。     MPEG-4 AAC家族目前共有九种编码规格,AAC-LD(Low Delay,低延迟规格)是用在低码率下编码。它支持8K~48K采样率的,可以64Kbps的码率输出接近 CD 音质的音频,并支持多声音通道,AAC-LD 算法延迟仅为 20ms。     AAC因为其模块化设计,功能更为强大。本身的框架结构能够被不断的新的东西填充,这就使得不同发展方面的内核相互融合,彼此吸收精华成为可能。 7、   各种音频协议的主要参数对比: 采样频率   支持音频带宽    输出码率    最低算法延迟 G711   8KHz    300 Hz ~ 3,400 Hz    64 Kbps    <1ms G722   16kHz    50 Hz ~ 7 kHz    64 Kbps    3ms G722.1   16kHz    50 Hz ~7 kHz    24、32 Kbps    40ms G722.1 C   32kHz    50 Hz~14 kHz    24、32、48Kbps    40ms AAC-LD   48kHz    20 Hz-20kHz    48~64 Kbps    20ms 三、AAC_LD与G722. Annex C优缺点对比: G722.1 C   AAC_LD 采样音频频率范围支持50 Hz~14 kHz,接近CD音质,但丢失了高频部分。    支持20 Hz-20kHz全频段的采样,音频更加接近CD音质。 输出码率24、32、48Kbps,带宽低于AAC-LD,但是以牺牲高频为代价的。    48~64 Kbps,并支持大于64Kbps的输出,为更好的音频质量提供了可能。 算法复杂性算法复杂度低,CPU占用率略好于AAC-LD   模块化设计,功能更为强大,有TI等专用芯片支持 最低延迟采用20ms封帧,40ms算法延迟   20ms算法延迟,好于G722.1 C 多声道可以支持双声道   AAC支持多达48个音轨、15个低频音轨 标准通用性G722.1-C 由Polycom制定开发,使用需要Polycom授权,目前只有Polycom和极少数会议电视厂商使用。   作为MPEG4核心标准,受到Apple、诺基亚、松下等支持,并被泰德等众多会议电视厂商所采用,应用前景更广阔。 由Fraunhofer研究院的调查对比图可以知道,在相同的采样频率下,AAC-LD可以提供比G722.1 C、MP3等更好的音质。AAC-LD实现了超宽频音频编码中最短的延时,并保证接近CD的音质,达到音质、比特率和延时三者的最佳组合,是会议电视领域的最优选择。