转自:http://blog.csdn.net/worldpharos/archive/2009/12/22/5056354.aspx
Dual channel:由两个单声道组成,两个声道编码时不考虑相关性,每个声道的码率为音频总码率的一半。E.g in a 128kbits file each channesl woudle take 64kbits。
Stereo:由两个或多个相互独立的声道组成,每个声道的码率根据其各自编码信息量大小而定。人耳听到时能对音源位置进行定位。E.G right use 48kbits and left uses 96 kbits in a 128kbits file。不会计算双声道之间的资料相关性,但是会协调分配双声道的资料流量,自动分配较多的 Bit 给复杂的声道使用。
Joint stereo:也是由两个声道组成,但编码时兼顾了这两个声道的共同信息量,比Stereo的压缩率更高。在这个压缩模式下,LAME 会利用双声道之间的资料相关性进行演算。左右声道资料类似时,会利用 M/S (Mid/Side) 编码技术,计算*声道 (L+R) 和两侧声道差异 (L-R) 的值,并且会分配较多的 Bit 给*声道,增加资料记录频宽。
单、双声道指的是音频处理系统电路是1、2套。立体声指的是音源。最基本的立体声要求两个发音器件,使得发出的声音被人耳听到后产生立体感。
实现立体声就要求播放器至少具有双声道,音源左右声道分别馈入双声道放大电路最终通过扬声器播放出来。
音频数字化是将连续的模拟声音波形数字化,主要包括采样频率、采样数位/采样精度两方面,二者决定了数字化音频的质量。反映音频数字化质量的另一个重要因素是声道个数。记录声音时,如果每次生成一个声波数据,称为单声道;每次生成二个声波数据,称为立体声(即双声道),立体声能够更真实反映人的听觉感受。
立体声不等于双声道,通俗的介绍应该是立体声一定由双声道组成,但是双声道不一定是立体声,因为立体声是根据双耳效应原理进行录制的,如果一个单声道音源分为两个声道也不能称为立体声,立体声的特点是能够对声音进行左右定位。
在放声系统中,应用两个或两个以上的声音通道,使听者所感到的声源相对空间位置能接近实际声源的相对空间位置,这种重放声音称为立体声。立体声有双声道立体声、四声道立体声、杜比立体声、杜比环绕声、杜比AC-3数码环绕声等。
Joint Stereo是一种立体声编码技巧,主要分为Intensity Stereo(IS)和Mid/Side (M/S) stereo两种。IS的是在比较低流量时使用,利用了人耳对於低频讯号指向性分辨能力的不足,将音讯资料中的低频分解出来合成单声道资料,剩余的高频资料则合成另一个单声道资料,并另外纪录高频资料的位置资讯,来重建立体声的效果。例如钢琴独奏的录音就可以利用这种方法在有限的资料流量中减少音场资讯却大幅增加音色资讯。
Mid/Side (M/S) stereo在左右声道资料相似度大时常被用到,纪录方式是将左右声道音讯合并(L+R)得到新的一轨,再将左右声道音讯相减(L-R)得到另外一轨,然后再将这两轨资料用上面提到听觉心理学模型与滤波器处理。Mid/Side (M/S) stereo与IS一样的是利用部分相位(phase)资讯的损失来换得较高的音色纪录资讯。一般的MP3是Mid/Side stereo和Intensity Stereo交替使用的,视资料内容与流量而定。如果是更高流量如160kbps以上的MP3,则可以单独将立体声的两个声道独立编码,以保存相位资讯。
如果你经常自己动手制作 MP3 的话,那你可能遇到过“单声道(Mono)”、“联合立体声(Joint Stereo)”、“立体声(Stereo)”之类的名词。它们是不同的音频声道模式,其中“单声道”和“立体声”大家都比较熟悉了,那么这个“联合立体声”到底是什么呢?它和“立体声”又有什么区别呢?
经过查证和思考,本人得出以下结论,仅供参考。
“联合立体声模式”是音频编码的立体声模式之一。联合立体声模式充分利用左右声道的相似之处,对于左右声道的相同部分不再重复编码,减少了数据的浪费,这样就可以做到在较低的位率下表现更丰富的细节。对于左右声道差异不大的音频来说,联合立体声编码模式通常在较低的位率下就可以得到不错的效果。
而“立体声模式”则使用两个相互独立的声道进行编码,因此它需要较多的位率,但它的左右声道的分离度较高,通常使用在位率较高的场合,用于高质量的音频编码。
根据经验,在制作一般的 MP3 歌曲时,使用 128 kbit/s 的位率和联合立体声模式比较合适。这里再附上一篇英文资料:
Q : What\'s the difference between the various stereo modes?
A : It\'s important to understand the difference between Stereo and Joint Stereo. \'Joint Stereo\' modes take advantage of the similarities between the L+R channels. This allows more bits to be used in other areas and in many cases this can give an overall gain in encoding quality. Almost all encoders use joint stereo when encoding at 128 kbits.
Joint stereo has 2 submodes called IS and MS. \'Joint Stereo IS\' destroys phase information and shouldn\'t be used for high-quality encoding. \'Joint Stereo MS\' means Middle/Side and is OK for use in most encoding.
However, for some audio, Joint Stereo MS may create a \'flanging\' or
\'swishing\' effect. In these cases it\'s better to use \'Stereo mode\'. This mode creates 2 independent channels for both left and right. When stereo mode is used, you should also use a higher bitrate (160 or 192 kbits) - Stereo mode will allocate about half of this bitrate for each channel.
In summary, for most audio, Joint Stereo MS at 128 or 160 kbits should be fine. If your audio is especially \'wide\' and creates flange you should use \'Stereo\' mode. You can change these modes in the Radium codec control panel.