一、android平台上的音频播放
Android SDK 提供了3套音频播放的API,分别是:MediaPlayer,SoundPool,AudioTrack。简单来说,MediaPlayer 更加适合在后台长时间播放本地音乐文件或者在线的流式资源; SoundPool 则适合播放比较短的音频片段,比如游戏声音、按键声、铃声片段等等,它可以同时播放多个音频; 而 AudioTrack 则更接近底层,提供了非常强大的控制能力,支持低延迟播放,适合流媒体和VoIP 语音电话等场景。
MediaPlayer播放音频介绍过了,这里介绍使用AudioTrack播放音频。实际上MediaPlayer也是调用MediaExtractor将音视频分离后再调用AudioDecoder进行解密,解码后的音频数据流再交给AudioTrack进行播放。因此AudioTrack支持PCM格式播放。
二、AudioTrack 的工作流程
(1) 配置参数,初始化内部的音频播放缓冲区
(2) 开始播放
(3) 需要一个线程,不断地向 AudioTrack 的缓冲区“写入”音频数据,注意,这个过程一定要及时,否则就会出现“underrun”的错误,该错误在音频开发中比较常见,意味着应用层没有及时地“送入”音频数据,导致内部的音频播放缓冲区为空。
(4)停止播放,释放资源
三、AudioTrack类的主要方法
方法 | 描述 |
---|---|
AudioTrack(int streamType, int sampleRateInHz, int channelConfig, int audioFormat, int bufferSizeInBytes, int mode) |
构造函数 |
static int getMinBufferSize(int sampleRateInHz, int channelConfig, int audioFormat) |
计算最小缓冲区大小,参数同构造函数中三个参数。 |
void play() |
开始播放 |
int write(byte[] audioData, int offsetInBytes, int sizeInBytes) int write(short[] audioData, int offsetInShorts, int sizeInShorts) |
写入音频数据到硬件有两个方法,返回成功写入的数据个数 |
void stop() |
停止播放 |
void pause() |
暂停播放 |
void release() |
释放资源 |
int getState() |
获取状态 |
int getPlayState() |
获取播放状态 |
int setVolume(float gain) |
设置音量(0~1.0) |
四、AudioTrack类的主要参数
1)streamType
这个参数代表着当前应用使用的哪一种音频管理策略,当系统有多个进程需要播放音频时,这个管理策略会决定最终的展现效果,该参数的可选的值以常量的形式定义在 AudioManager 类中,主要包括:
STREAM_VOCIE_CALL:电话声音
STREAM_SYSTEM:系统声音
STREAM_RING:铃声
STREAM_MUSCI:音乐声
STREAM_ALARM:警告声
STREAM_NOTIFICATION:通知声
2)sampleRateInHz
采样率,从AudioTrack源码的“audioParamCheck”函数可以看到,这个采样率的取值范围必须在 4000Hz~192000Hz 之间。
3)channelConfig
通道数的配置,可选的值以常量的形式定义在 AudioFormat 类中,常用的是 CHANNEL_OUT_MONO(单通道),CHANNEL_OUT_STEREO(双通道)、CHANNEL_OUT_5POINT1(5.1声道)、CHANNEL_OUT_7POINT1(7.1声道),更多的声道配置可参考AudioFormat。
4)audioFormat
这个参数是用来配置“数据位宽”的,可选的值也是以常量的形式定义在 AudioFormat 类中,常用的是 ENCODING_PCM_16BIT(16bit),ENCODING_PCM_8BIT(8bit),注意,前者是可以保证兼容所有Android手机的。
5)bufferSizeInBytes
这个是最难理解又最重要的一个参数,它配置的是 AudioTrack 内部的音频缓冲区的大小,该缓冲区的值不能低于一帧“音频帧”(Frame)的大小,而前一篇文章介绍过,一帧音频帧的大小计算如下:
int size = 采样率 x 位宽 x 采样时间 x 通道数
采样时间一般取 2.5ms~120ms 之间,由厂商或者具体的应用决定,我们其实可以推断,每一帧的采样时间取得越短,产生的延时就应该会越小,当然,碎片化的数据也就会越多。
6)mode
AudioTrack 提供了两种播放模式,一种是 static 方式,一种是 streaming 方式,前者需要一次性将所有的数据都写入播放缓冲区,简单高效,通常用于播放铃声、系统提醒的音频片段; 后者则是按照一定的时间间隔不间断地写入音频数据,理论上它可用于任何音频播放的场景。
五、代码实现
AudioTrack 类的接口简单封装
public class AudioPlayer {
private static final String TAG = "AudioPlayer";
private static final int DEFAULT_STREAM_TYPE = AudioManager.STREAM_MUSIC;
private static final int DEFAULT_SAMPLE_RATE = 44100;
private static final int DEFAULT_CHANNEL_CONFIG = AudioFormat.CHANNEL_IN_STEREO;
private static final int DEFAULT_AUDIO_FORMAT = AudioFormat.ENCODING_PCM_16BIT;
private static final int DEFAULT_PLAY_MODE = AudioTrack.MODE_STREAM;
private boolean mIsPlayStarted = false;
private int mMinBufferSize = 0;
private AudioTrack mAudioTrack;
public boolean startPlayer() {
return startPlayer(DEFAULT_STREAM_TYPE,DEFAULT_SAMPLE_RATE,DEFAULT_CHANNEL_CONFIG,DEFAULT_AUDIO_FORMAT);
}
public boolean startPlayer(int streamType, int sampleRateInHz, int channelConfig, int audioFormat) {
if (mIsPlayStarted) {
(TAG, "Player already started !");
return false;
}
mMinBufferSize = (sampleRateInHz,channelConfig,audioFormat);
if (mMinBufferSize == AudioTrack.ERROR_BAD_VALUE) {
(TAG, "Invalid parameter !");
return false;
}
(TAG , "getMinBufferSize = "+mMinBufferSize+" bytes !");
mAudioTrack = new AudioTrack(streamType,sampleRateInHz,channelConfig,audioFormat,mMinBufferSize,DEFAULT_PLAY_MODE);
if (() == AudioTrack.STATE_UNINITIALIZED) {
(TAG, "AudioTrack initialize fail !");
return false;
}
mIsPlayStarted = true;
(TAG, "Start audio player success !");
return true;
}
public int getMinBufferSize() {
return mMinBufferSize;
}
public void stopPlayer() {
if (!mIsPlayStarted) {
return;
}
if (() == AudioTrack.PLAYSTATE_PLAYING) {
();
}
();
mIsPlayStarted = false;
(TAG, "Stop audio player success !");
}
public boolean play(byte[] audioData, int offsetInBytes, int sizeInBytes) {
if (!mIsPlayStarted) {
(TAG, "Player not started !");
return false;
}
if (sizeInBytes < mMinBufferSize) {
(TAG, "audio data is not enough !");
return false;
}
if ((audioData,offsetInBytes,sizeInBytes) != sizeInBytes) {
(TAG, "Could not write all the samples to the audio device !");
}
();
(TAG , "OK, Played "+sizeInBytes+" bytes !");
return true;
}
}