当前位置:首页 > 消费电子 > 消费电子
[导读]随着存储媒体容量和传输带宽的不断提高,高质量多声道数字音频系统也逐渐取代传统的单声道、立 体声系统,而成为新的传播媒体方式。本文着重介绍当前几种典型的多声道数字音频系统的编、解码技术。 以MPEG-2、AC-3、DTS、MPEG AAC多声道数字音频系统来讨论它们各自声道的配置、数据容量、数据率等所 带来的优缺点,最后介绍在数字音视频广播中,多声道数字音频系统的应用。

1、前言
对于CD格式来说,大家都知道它具有良好的信噪比、超过80dB以上的动态范围以及超过15kHz的频率范围,这使得它具有良好的音频质量和满意的收听效果,但是它仅仅提供了两个声道。多声道数字音频系统通过声道的扩展,不仅在质量上与CD音频不相上下,同时还带给听众身临其境的感受,而这是传统单声道和立体声无法实现的,因此多声道数字音频系统已被更多的听众接受,同时也逐渐成为

图2 编码、传输、人耳听音的实现
2.1 根据听觉域度对可闻信号进行编码
  人耳对声振动的感受,在频率及声压级方面都有一定的范围,频率范围正常人约为20Hz~20kHz,而声压级范围则是如图听阈曲线来描述的。意即在这条曲线之下的对应频率的信号是听不到的。
图16 MPEG-2音频混合后环绕声兼容性 如图3所示,对于信号A来说,由于其声压级超过听阈曲线的声压级域值,所以可以对人耳造成声振动的感
受,意即听到A信号。而对B信号来说,其声压级位于听阈曲线之下,虽然它是客观存在的,但人耳是不可闻的。因此,可以将类似的信号去除掉,以减少音频数据率。
2.2 根据掩蔽效应,只对幅度强的掩蔽信号进行编码
人耳能在寂静的环境中分辨出轻微的声音,但在嘈杂的环境中,同样的这些声音则被嘈杂声淹没而听不到了。这种由于一个声音的存在而使另一个声音要提高声压级才能被听到的现象称为听觉掩蔽效应。 
  如图4所示,虽然B、C两信号的声压级已超过听阈曲线的范围,人耳已可以听到B、C两信号的存在,但是由于A信号的存在,通过前向掩蔽将C信号淹没掉,通过后向掩蔽将B信号淹没掉,从而最终到达人耳引起感觉的只有A信号。因此,可以将类似的B、C信号去除掉以减少音频数据率。
2.3 量化噪声使得不必全部编码原始信号
类似于人耳的听阈曲线,由于数字信号存在着量化噪声,如图5所示,对于信号A和B来说,并不一定要将A、B信号进行全部幅度的编码,而只需将A、B信号与量化噪声的差值进行编码就可以达到相同的听觉效果,因此,在编码过程中实际量化幅度就可以大大的减少,而减少数据率。


2.4 通过子带分割来进行优化、编码
在传统的编码过程中,都是将整个频带作为操作对象,采用相同的比特分配对每个信号进行量化。而实际上,由于听觉曲线的存在及其它因素,对于幅度较小的信号可以分配较少的比特数就可以达到要求,因此将整个频带分成多个子频带,然后对每个子频带的信号独立编码,从而使得在每个子频带中比特分配可以根据信号自身来适应。
如图ABCD四个信号,如果对整个频带编码,对于D信号来说分配16比特来量化则显得多余浪费,所以如果将ABCD分别置于不同的子带内,则可在分别所处的子带内使用最适合的比特数分配给信号来编码,从而减少数据率,同时如果用于分割的子带分辨率越高,意即子带的频带相对越窄,那么在子带中分配的比特数
就越精确,而减少了比特率。
2.5 不同的实现方式
当前在数字音频编码领域存在着各种不同的编码方案和实现方式,为了能够让大家对此有一个较完整的认识,在本文中仅对当前流行的几种典型的编码方法做一个介绍。不管是通过那一种方式实现,其基本的编码思路方框图都大同小异,如图7所示。对于每一个音频声道中的PCM音频信号来说,首先都要将它们映射到频域中,这种时域到频域的映射可以通过子带滤波器(如MPEG Layers I,II,DTS)或通过变换滤波器组(如AC-3,MPEG AAC)实现。这两种方式的最大不同之处在于滤波器组中的频率分辨率的不同。
每个声道中的音频采样块首先要根据心理声学模型来计算掩蔽门限值,然后由计算出的掩蔽门限值来决定如何将公用比特区中的比特分配给不同的频率范围内的信号,如MPEG Layers I,II,DTS所采用;或由计算出的掩蔽门限值来决定哪些频率范围内的量化噪声可以引入而不需要去除,如AC-3,MPEG AAC所采用。
然后根据音频信号的时域表达式进行量化,随后采用静噪编码(如MPEG Layers I,II,DTS,MPEG AAC)。最后,将控制参数及辅助数据进行交织产生编码后的数据流。解码过程则首先将编码后的数据流进行解复用,然后通过比特流中传输的控制参数对音频数据反量化,或通过心理声学模型参数反向运算得到音频信号(如AC-3),最后将得到的音频信号由频域反变换到时域,完成解码过程。
另外多声道数字音频编码技术还充分利用了声道之间的相关性及双耳听觉效应,来进一步去除声道之间的冗余度和不相关度。去除通道之间的相关度,一种最常用的方法是M/S方式,在这种方式中是将两个独立声道的频谱相加和相减,根据两个声道的相关度大小,来决定是传输和/差信号还是传输原始信号。
由于人耳对于频率超过2-3kHz的声音定位主要是通过内耳密度差分(IID)实现的,因此为了进一步减少数据率,将各个声道中频率超过约定门限值的信号组合后再进行传输。这种技术应用在MPEG Layers I,II,III中,实现强度立体声编码;用在AC-3中对两个声道或耦合声道实现多声道编码。在MPEG AAC中,则既可实现强度立体声编码,又可实现多声道编码。
1、杜比数字AC-3编解码压缩过程
AC-3最早是在1991年的电影“Batman Returns”中应用的。它的应用不仅在电影界占有一席之地,而且它已被北美地区的数字电视及DVD视频定为其数字音频实施规范。我们熟知的AC-2,AC-3都是由两声道发展而来的,即杜比数字(Dolby Digital)。对于数字音频信号来说,通过应用数字压缩算法,来减少正确再现原始脉冲编码调制(PCM)样本所需要的数字信息量,得出原始信号经数字压缩后的表达式。 
3.1 AC-3编码过程
AC-3编码器接受PCM音频并产生相应的AC-3数码流。在编码时,AC-3算法通过对音频信号的频域表达式进行粗量化,达到高的编码增益(输入码率对输出码率之比)。如图8所示。
编码过程的第一步是把音频表达式从一个PCM时间样本的序列变换为一个频率系数样本块的序列。这在分析滤波器中完成。512个时间样本的相互重叠样本块被乘以时间窗而变换到频域。由于相互重叠的样本块,每个PCM输入样本将表达在两个相继的变换样本块中。频域表达式则可以二取一,使每个样本块包含256个频率系数。这些单独的频率系数用二进制指数记数法表达为一个二进制指数和一个尾数。这个指数的集合被编码为信号频谱的粗略表达式,称作频谱包络。核心的比特指派例行程序用这个频谱包络,确定每个单独尾数需要用多少比特进行编码。将频谱包络和6个音频样本块粗略量化的尾数,格式化成一个AC-3数据帧(FRAME)。AC-3数码流是一个AC-3数据帧的序列。
在实际的AC-3编码器中,还包括下述功能:
l附有一个数据帧的信头(header),其中包含与编码的数码流同步及把它解码的信息(比特率、取样率、编码的信道数目等)。
l插入误码检测码字,以便解码器能检验接收的数据帧是否有误码。
l可以动态的改变分析滤波器组的频谱分辨率,以便同每个音频样本块的时域/频域特性匹配的更好。
l频谱包络可以用可变的时间/频率分辨率进行编码。
l可以实行更复杂的比特指派,并修改核心比特分派例行程序的一些参数,以便产生更加优化的比特指派。
l一些声道在高频可以耦合在一起,以便工作在较低比特率时,可得到更高的编码增益。
l在两声道模式中,可以有选择的实行重新设置矩阵的过程,以便提供附加的编码增益,以及当两信道的信号解码时使用一个矩阵环绕声解码器,还能获得改进的结果。发展是从85年以后开始的,其中包括了我们熟知的Eureka 147 DAB(尤里卡147数字音频广播)和DVB。不断发展的数字调制方式及编码算法都为数字音频广播提供了更加有效的传输和存储方式,使得在有限的带宽中以较低比特率来传输声道数更多、质量更优的音频信号成为可能。同样在数字音频广播系统的发展中也充分利用了这些以此为核心的新技术。以前,立体声广播起着主导的作用,现在随着越来越多的多声道数字音频系统的应用,在数字音频广播领域也已经开始接纳并制定相关的音频标准了。在Eureka 147 DAB和DVB中,已经包括了多声道数字音频的扩展。
7.1
Eureka 147 DAB国际协议是于1986年由16个欧洲成员组织为制定数字音频广播标准而制定的标准规范。随后又有一些新的组织机构加入到这项协议工作中去,并于1995年形成了第一个DAB的标准。在同一年中,世界范围的DAB论坛也相继成立,它们的目标就是促进世界各地更多的组织机构采用以Eureka 147 DAB为蓝本的数字音频广播的实现。
Eureka 147 DAB系统的设计是用来取代现行的FM广播业务的,它采用COFDM(编码正交频分复用)以便于更好地进行移动接收和克服多径效应,载波采用DQPSK(差值正交相移键控)进行调制,通道编码采用卷积编码,以满足可调整码率的需要。
Eureka 147 DAB系统使用1.536MHz的频谱带宽来传输最大不超过1.5Mb/s的数据,因此对于多声道来说, 如为6个声道,则每个声道的数据率最大不超过256kb/s。对于声道如何分配及使用,则是根据节目数量/ 数据业务与音频质量来折衷考虑的。由于早期的Eureka 147 DAB源编码的发展没有反映出当前最新发展的技术,同时由于历史原因及DAB标准由欧洲制定,而欧洲长期以来都采用的是MPEG技术,考虑到兼容等问题,因此DAB系统中音频编码系统采用的是MPEG Layer II编码方案。不能说MPEG Layer II编码方案有什么不好,但是如果我们综观当前多声道数字音频系统的最新发展,不难看出,有更多更好的方案可以被采用,如在提高声音质量上可采用DTS系统,在增加声道数目上可采用MPEG AAC系统。
7.2
DVB项目是在1993年由220多个世界组织来制定建立的。这些世界组织包括广播业者、制造商、网络管理者和致力于发展数字电视标准的各种组织机构。最早的DVB业务是在欧洲开始的,现在DVB标准不仅是欧洲的数字电视标准,而且它也扩展到亚洲、非洲、美洲及澳大利亚等地区,成为这些地区数字电视的选择标准之一。与此不同的美国采用的是ATSC系统。
在DVB的标准中规定了三个子系统:DVB-S(卫星)、DVB-C(有线)和DVB-T(地面)系统。DVB-S系统是一种单载波系统,是最早实现的DVB标准,它是建立在正交相移键控(QPSK)调制和通道编码(卷积编码和里得-所罗门块编码)的基础之上的,典型的码率为40Mb/s左右。DVB-C系统是以DVB-S系统为基础建立的,不同的是它采用QAM(正交调幅)调制方式,取代了用于DVB-S中的QPSK调制方式。在DVB-C中如果使用64点QAM调制,则可以实现在8MHz的带宽中传输38.5Mb/s的数据。DVB-T系统与以上两者都不同的是采用了COFDM的调制方式,而通道编码则与前两者基本相同。在DVB-T系统中,可以实现在7MHz的带宽中传输19.35Mb/s的数据。
DVB系统的源编码是建立在MPEG-2视频和MPEG-2系统标准上的。同时在DVB中也提供了与立体声相兼容的多声道数字音频系统。同样由于历史及其他一些原因,在DVB音频部分中仍然采用的是MPEG Layer II多声道数字音频系统,在DVB的标准中也同时规定可以采用灵活性更大、质量更高,超过MPEG Layer II MC系统的多声道数字音频系统作为DVB的音频部分。
总之,随着数字广播的不断发展,相信这些已经成熟的各种技术都将有它们各自的用武之地。
8、结语
在本文中,我们主要讨论了当前较流行、较成熟的几种多声道数字音频系统,同时也对它们所采用的编码方法的主要技术做了详尽的分析比较。随着存储媒体及传输带宽技术的不断发展,相信多声道数字音频系统会逐渐取代传统的如CD格式的音频系统;同样应用于多声道数字音频系统中的音频编码及传输方案也会不断的进行更新、发展。更多声道的实现及更高质量的音频系统实现都会成为可能,如新建立的DVD-Audio音频技术中的编码方案已远远超越了PCM音频方式。
总而言之,我们相信在今后的数字广播的发展中,不管是DVB、DAB、数字视频、音频广播,还是ATSC数字电视系统等,都将会采用不受带宽限制(相对而言)、可提供更高质量、更多声道的多声道数字音频系统。

3. 2 AC-3解码过程
解码过程基本上是编码的逆过程。解码器必须同编码数码流同步,检查误码,以及将不同类型的数据(例如编码的频谱包络和量化的尾数)进行解格式化。运行比特指派例行程序,将其结果用于解数据大包(unpack)和尾数的解量化。将频谱包络进行解码而产生各个指数。各个指数和尾数被变换回到时域成为解码的PCM时间样本。

在实际的AC-3解码器中,还包括下述功能:
l假若检测出一个数据误码,可以使用误码掩盖或静噪。
l高频内容耦合在一起的那些声道必须去除耦合。
l无论何时已被重新设置矩阵的声道,必须进行去除矩阵化的过程(在2-声道模式中)。
l必须动态的改变综合滤波器组的分辨率,与编码器分析滤波器组在编码过程中所用的方法
相同。
3. 3 杜比数字AC-3编码数据格式
经过杜比数字AC-3编码器的编码处理,可以将原始的数据PCM信号编码为杜比数字AC-3音频数据流。一个AC-3串行编码的音频数据流是由一个同步帧的序列所组成。如图10所示。



由图可见,每个同步帧包含六个编码的音频样本块(AB)其中每个代表256个新的音频样本。在每个同步帧开始的同步信息(SI)的信头中,包含为了获得同步和维持同步所需要的信息。接着SI后面的是数码流信息(BSI)的信头;它包含描述编码数据流业务的各种参数。编码的音频样本块之后接 着是一个辅助数据(AUX)字段。在每个同步帧结尾处是误码检验字段,其中包含一个用于误码检测的CRC字。一个附加的CRC字位于SI信头中,以供选用。
AB0~AB5的每一块代表一个编码通道,可以被分别独立解码,块的大小可以调整,但总数据量不变。在图中还有两个未标出的CRC,其中第一个位于帧的5/8处,另一个位于帧未。之所以如此安排,目的就是可以减少解码器的RAM需求量,使得解码器不必完全接收一帧后才解码音频数据,而是分成了两部 分进行解码。
3.4 杜比数字AC-3的兼容性
由于AC-3比特流中同步结构中的AB0~AB5是独立解码的,因此可以将这些编码信号重新构造为所需的输
出信号,即输出的下行兼容性。

在许多重放系统中,扬声器的数目不能同编码的音频声道的数目匹配。为了重现完整的音频节目需要向下混合。在帧同步中,AB0~AB5中记录着六个独立声道的音频数据,按照AC-3重放时的安排,我们称之为L、R、C、Ls、Rs、LFE。一般用于向下混合的过程中,低音增强LFE通道记录的音频信号主要用于渲染烘托气氛,所以向下混合时,只用其中的L、R、C、Ls、Rs。从图中可以看到编码后的AC-3数据流可以直接传输后经解码器解码为5.1通道音频信息进行重放,也可以向下混合为两个声道信号,然后经不同的解码器得到不同的重放模式。就单一环绕声道(n/1模式)而言,把S称为单个环绕声道。从图中可看出,向下混合提供两种类型:向下混合为Lt、Rt矩阵环绕编码的立体声对;
向下混合为通常的立体声信号Lo、Ro。向下混合的立体声信号(Lo、Ro或Lt、Rt)可进一步向下混合为单声道M,通过两个声道简单的相加即可。如果将Lt、Rt向下混合为单声道,环绕信息将会丢失。当希望需要一个单声道信号时则Lo、Ro向下混合更可取。
用于Lo、Ro立体声信号的一般3/2向下混合方程式为:
Lo=1.0′L+clev′C+slev′Ls;
Ro=1.0′R+clev′C+slev′Rs;
如果接着Lo、Ro被组合成单声道信号重放,有效的向下混合方程式为:
M=1.0′L+2.0′clev′C+1.0′R+slev′Ls+slev′Rs;
如果只出现单个环绕声道S(3/1模式),则向下混合方程式为:
Lo=1.0′L+clev′C+0.7′slev′S;
Ro=1.0′R+clev′C+0.7′slev′S;
M=1.0′L+2.0′clev′C+1.0′R+1.4′slev′S;
其中clev、slev分别代表中央声道混合声级系数和环绕声道混合声级系数,在BSI数据中由Cmixlev、Surmixlev比特字段来指出相对应的值。
用于Lt、Rt立体声信号的一般3/2向下混合方程式为:
Lt=1.0′L+0.707′C-0.707′Ls-0.707′Rs;
Rt=1.0′R+0.707′C+0.707′Ls+0.707′Rs;
如果只出现单个环绕声道S(3/1模式),则向下混合方程式为:
Lt=1.0′L+0.707′C-0.707′S;
Rt=1.0′R+0.707′C+0.707′S;
经过对独立声道的音频信号进行不同的分配及矩阵重组,则实现了AC-3数据流的向下兼容性, 意即通过不同的解码器、解码矩阵方式,可以得到杜比数字5.1声道环绕声、立体声、杜比Prologic、单声道以及杜比的虚拟环绕声方式。其中Lo、Ro与Lt、Rt的最大区别就是Lt、Rt是记录的全部的L、R、环绕声的信息,经过矩阵重解可得到环绕声信息,而Lo、Ro则是将环绕声信息增加支立体声信号中,无法再重现环绕声信号信息。
4、MPEG-2多声道编解码过程
MPEG-2感知编码系统充分利用了心理声学中的掩蔽效应和哈斯效应,利用压缩编码技术,将原始音频信号中不相关分量和冗余分量有效的去除掉,在不影响人耳听觉阈度和听音效果质量上,将音频信号压缩。
4.1 MPEG音频子带编码器的基本结构
感知型子带音频编码器不断地对音频输入信号进行分析。由一个心理声学模型动态地确定掩蔽门限,即在该掩蔽门限之下的多余的噪声是无法为人的听觉系统听到的。由该心理声学模型产生的信息被馈至一个比特分配模块,该模块的任务是将各声道可用的比特以一种优化的方式在频谱范围内进行分配。输入信号还与上述过程并行地被分割到一系列称为子带的频带中。每个子带信号都在经过定
标处理后被重新进行量化,该量化编码过程引入的量化噪声不能超过已确定的对应子带的掩蔽门限。因此量化噪声频谱就与信号频谱进行了动态自适应。“比例因子”和各子带所使用的量化器的相关信息与编码后的子带样值一同进行传输。
解码器可以在不了解编码器如何确定编码所需信息的情况下对码流进行解码。这可以降低解码器的复杂度,并为编码器的选择和解码器开发提供了很大的灵活性。如在心理声学研究上取得了新的结果,则更高效率和更高性能的编码器可在与所有现有解码器完全兼容的条件下得以应用。这一灵活性目前已有了成功的例子,现在最高技术水平的编码器的性能已超过了标准化过程中使用的早期编码器。

4.2 层
MPEG音频标准包括了三种不同的算法,称为层。层数越高,相应可达到的压缩比就越高,而复杂度、延时及对传输误码的敏感度也越高。层II专门对广播应用进行了优化。它使用了具有32个等宽子带划分的子带滤波,自适应比特分配和块压扩。单声道的码率范围为32-192 kbps,立体声为64-384 kbps。
它在256 kbps及192 kbps相关立体声条件下的表现十分出色。128 kbps(立体声)条件下的性能在许多应用中仍可接受。
4.3 MPEG-2在多声道音频方面的扩展
ITU-R工作组TG10-1在关于多声道声音系统的建议方面进行了工作。该项工作的主要成果就是建议BS.775,其中说明一个适当的多声道声音配置应包含五个声道,分别代表左、中央、右、左环绕、右环绕声道。如果使用了一个作为选项的低频增强声道(LFE),则该配置被称为“5.1”。五声道配置也可表示为‘3/2’,即三个前置声道及两个环绕(后置)声道。
MPEG已认识到应根据ITU-R建议775来增加音频标准的多声道能力的必要性。

这是在第二阶段完成的,由此产生了MPEG-2音频标准。在多声道声音方面的扩展支持在一路码流中传输五个输入声道、低频增强声道以及7个旁白声道。该扩展与MPEG-1保持前向及后向兼容。前向兼容性意味着多声道解码器可正确地对立体声码流进行解码。后向兼容性则意味着一个标准的立体声解码器
在对多声道码流进行解码时可输出兼容的立体声信号。
这是通过一种真正的可分级方式实现的。在编码器端,五个输入声道被向下混合为一路兼容立体声信号。该兼容立体声信号按照MPEG-1标准进行编码。所有用于在解码器端恢复原来的五个声道的信息都被置于MPEG-1的附加数据区内,该数据区被MPEG-1解码器忽略。这些附加的信息在信息声道T2、T3及T4以及LFE声道中传输,这几个信息声道通常包含中央、左环绕和右环绕声道。MPEG-2多声道解码器不但对码流中的MPEG-1部分进行解码,还对附加信息声道T2、T3、T4及LFE解码。根据这些信息,它可以恢复原来的5.1声道声音。

当相同码流馈送至MPEG-1解码器时,解码器将只对码流的MPEG-1部分进行解码,而忽略所有附加的多声道信息。由此它将输出在MPEG-2编码器中经向下混合产生的两个声道。这种方式实现了与现有的双声道解码器的兼容性。也许更为重要的是,这种可分级的方式使得即使在多声道业务中仍可使用低成 本的双声道解码器。考虑到所使用的其它所有编码策略,多声道业务中的双声道解码器本质上就是一 个对所有声道进行解码并在解码器中产生双声道向下混合信号的多声道解码器。如图14所示。


就其包含了不同的可由编码器使用以进一步提高音频质量的技术而言,该标准是具有很大灵活性的。
4.4 定向逻辑兼容性
如果源素材已经经过环绕声编码(如Dolby环绕声),广播业者可能希望将它直接播送给听众。一种选择是将该素材直接以2/0(仅为立体声)模式播送。环绕声编码器主要是将中央声道信号分别与左右声道信号同相相加,而将环绕声道信号分别与左右声道信号反相相加。为能对这些信息正确解码,编解码器必须保持左右声道彼此之间的幅度和相位关系。这在MPEG编码中是通过限制强度立体声编码只能在高于8kHz的频率范围内使用而得以保障的,因为环绕声编码仅在低于7kHz的范围内使用环绕声道信息。如图15所示。



图15 使用MPEG-1音频播送环绕声素材
  
 
当传输多声道信息时,与现有(专利的)环绕声解码器的兼容性可通过几种手段得以实现。多声
道编码器在工作时使用一个环绕声兼容的矩阵。这可以使立体声解码器能够接收环绕声编码的信号,
并可选择将其传送给环绕声解码器。一个完整的多声道解码器将对所有信号进行再变换,以获得原来
的多声道表现。MPEG-2多声道语法支持这种模式,进而也为DVB规范所支持。如图16所示。


4.5 MPEG-2在低采样率方面的扩展
除了在多声道方面的扩展外,MPEG-2音频还包含了MPEG-1音频在低采样率方面的扩展。该扩展的目的是以一种简单的方式获得改进的频谱分辨率。通过将采样率减半,频率分辨率就提高了两倍,但时间分辨率则劣化了两倍。这可使许多稳态信号获得更好的质量,而对一些在时间特性上要求严格的信号而言质量则下降了。半采样率的使用是在码流中通过将每帧帧头中的某一比特,即ID位置设为“0”来表示的。而且,可用码率表也进行了修改,以便在低码率条件下提供更多的选择,每个子带可用的量化器也为适应更高的频率分辨率作了修改。
5、先进音频编码(Advanced Audio Coding-AAC)
MPEG AAC(先进音频编码)是于1997年成为ISO/IEC标准的(参见ISO/IEC 13818)。AAC是以新建立的MPEG-4标准中的时域到频域映射的编码算法组成的。AAC从提高效率的角度出发,放弃了与原MPEG-1解码器的后向兼容性,这也是该算法在开始时被称为NBC的原因。
5.1 AAC的主要特点
AAC可以支持1到48路之间任意数目的音频声道组合、包括15路低频效果声道、配音/多语声声道,以及15路数据。它可同时传送16套节目,每套节目的音频及数据结构可任意规定。在码率为64kbps/声道的条件下,AAC可以提供很高的声音质量。
根据不同的应用场合,AAC提供了三种类型(Profile)以供选择,即主要类型(Main Profile)、低复杂度类型(Low Complexity Profile)、可放缩采样率类型(Scaleable Sampling Rate, SSR  Profile)。因而其可应用范围很广。
5.2 AAC算法结构
为提高音频编码效率,AAC采用了许多先进技术,如霍夫曼编码、相关立体声、声道耦合、反向自适应预测、时域噪声整形、修正离散余弦变换(MDCT)、及混合滤波器组等。

其中,滤波器组与MPEG层III所采用的滤波器组相比,由于层III算法在对滤波器进行选择时考虑了兼容性问题,因而具有固有的结构上的不足;而AAC则直接采用了MDCT变换滤波。同时,AAC增加了窗口长度,由1152点增至2048,使MDCT的性能优于原来的滤波器组。
时域噪声整形(TNS)技术是时域/频域编码中一项新颖的技术。它利用频域的自适应预测的结果来对时域中量化噪声的分布进行整形处理。通过采用TNS技术,可以使特殊环境下的话音信号质量得到显著的提高。
后向自适应预测是一项在语音信号编码系统领域建立起来的技术。它主要利用了某一特定形式的音频信号易于预测的特点。
在量化过程中,通过对量化精度更为精细的控制,可以使给定的码率得到更加有效的利用。在码流复接时,通过对必须传输的信息进行熵编码使冗余度降至最低。
通过以上各种编码技术的运用以及采用一种可变的码流结构,使AAC编码算法在得到大大优化的同时, 也为将来进一步提高编码效率提供了可能性。
事实上,在AAC编码的三种类型中,各种编码技术的使用也是不同的,也就是说,三种类型的算法复杂度是不同的。这一不同考虑了编、解码两端的算法复杂度。例如,后向自适应预测约占解码运算量的45%左右,在LC和SSR类型中都没有采用这一技术。另外,在LC类型中,TNS滤波器的长度被限制为12个系数,但仍保持了18 KHz带宽;在SSR类型中,TNS也只使用12个系数,并且带宽限制为6 KHz,同时该类型也没有采用声道耦合技术,在混合滤波器组的结构及增益控制方面也与另两种类型不同。
AAC可以在低数据率的情况下提供较高质量的音频信息,如每个声道仅64kb/s时就会有比较好的性能。
AAC当前的应用主要用于日本的数字音频广播及美国的IBOC(带内同频技术)。
6、 用于DTS的相干声学编码
DTS系统中采用的数字音频压缩算法——相干声学编码,主要目的就是用于提高民用音频重放设备重放的音频质量的,其音频重放质量可以超越原有的如CD唱片的质量。同时通过更多扬声器的使用,使得听众可以感受到普通立体声无法达到的声音效果。因此总体目标就是将听众真正的带入专业的音响领 域及多声道环绕声的天地。
相干声学编码器是一种感知、优化、差分子带音频编码器,它使用了多种技术对音频数据进行压缩。下面将分别对其进行详细的描述。从整体来看,编码器与解码器的实现是不对称的。理论上编码器可以设计的非常复杂,但实际上,编码器



图19 相干声学解码器流程图
第二步是通过在每个子带中传输的辅助信息指令,对子带中的差分信号进行反量化得到子带PCM信号。这些通过反量化得到的子带PCM信号再进行反滤波处理,得到每个声道的全频带的时域PCM信号。在解码器中,没有程序用于音频质量的调整。
在解码器中包括一个可选的DSP功能模块,这个模块主要用于用户的编程使用。它允许对单个声道或全部声道中子带或是全频带PCM信号进行处理。这些功能诸如上矩阵变换、下矩阵变换、动态范围控制以及声道之间的延时调整等。
6.3
DTS系统最早是用于电影应用中的。在1993年的电影“Jurassic Park”(侏罗纪公园)中,没有使用AC-3,而是使用了DTS多声道数字音频系统。DTS系统中的音频数据是存储在一张CD-ROM上的,取代了将声音记录在胶片上的方式,而是在胶片上记录用于同步CD-ROM音频信息的时间码,通过电影胶片上的时间码来同步播放CD-ROM。由于CD-ROM与电影胶片磁迹相比,具有更大的容量和更稳定的可靠程度,因此它可以在4:1压缩比的情况下提供质量更高的多声道音频信息。对于AC-3来说,典型的压缩比为12:1。随着应用的普及,DTS系统又提出一种低数据率版本,其参数规范如下:
音频声道的个数DTS=1——10.1
FsDTS=8——192kHz
RDTS=16——24bit
BDTS=32——6144kb/s
数据帧大小DTS=512样本
在低数据率版本中,由0到24kHz的32个子带的频率,通过一个512抽头的多相正交镜象滤波器(PQMF)来实现从时域到频域的映射。另外8个附加的子带覆盖了24kHz到48kHz之间频率范围,2个附加的子带覆盖了48 kHz到96 kHz之间的频率范围。为了进一步减小冗余度,采用了前向自适应线性预测,同时心理声学模型用来对信号进行预测,在量化过程中使用了标度量化和矢量量化。
DTS的大多数应用都是采用相对较小的压缩比、工作在几乎无损情况的模式下的。一般来说,数据率在1Mb/s的情况下,DTS可以提供较好质量的音频。DTS的应用也主要是在电影、CD及DVD视频中。另外,DTS所具有的可变比特率编码方式使得它同样可以应用于DAB及DVD的广播中。
7、
数字音频广播系统的

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭