Android平台实现系统内录(捕获播放的音频)并推送RTMP服务技术方案探究

时间:2022-11-10 18:00:39

几年来,我们在做无纸化同屏或在线教育相关场景的时候,总是被一件事情困扰:如何实现Android平台的系统内录,并推送到其他播放端,常用的场景比如做无纸化会议或教育的时候,主讲人或老师需要放一个视频,该怎么办呢?这里我们分析三种可行的技术方案:

方案1:解析视频文件推送

Android终端的话,先利用MediaExtractor,把mp4文件的音视频数据分离,然后调用我们publisher模块,实现编码后的数据对接到RTMP服务器,实例代码如下:

/*
* SmartPublisherActivity.java
* Github: https://github.com/daniulive/SmarterStreaming
*/
private void InitMediaExtractor(){
File mFile = new File("/storage/emulated/0/","2022.mp4");

if (!mFile.exists()){
Log.e(TAG, "mp4文件不存在");
return;
}

MediaExtractor mediaExtractor = new MediaExtractor();
try {
mediaExtractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}

int count = mediaExtractor.getTrackCount();//获取轨道数量
Log.e(TAG, "轨道数量 = "+count);

for (int i = 0; i < count; i++)
{
MediaFormat trackFormat = mediaExtractor.getTrackFormat(i);
String mineType = trackFormat.getString(MediaFormat.KEY_MIME);
Log.e(TAG, i + "编号通道格式 = " + mineType);

//视频信道
if (mineType.startsWith("video/")) {
video_track_index = i;
is_has_video = true;

try {
video_media_extractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}

if(mineType.equals("video/avc"))
{
video_codec_id = 1;
}
else if(mineType.equals("video/hevc"))
{
video_codec_id = 2;
}

int width = trackFormat.getInteger(MediaFormat.KEY_WIDTH);
int height = trackFormat.getInteger(MediaFormat.KEY_HEIGHT);
long duration = trackFormat.getLong(MediaFormat.KEY_DURATION);//总时间
int video_fps = trackFormat.getInteger(MediaFormat.KEY_FRAME_RATE);//帧率
max_sample_size = trackFormat.getInteger(MediaFormat.KEY_MAX_INPUT_SIZE);//获取视频缓存输出的最大大小

Log.e(TAG, "video width " + width + ", height: " + height + ", duration: " + duration + ", max_sample_size: " + max_sample_size + ", fps: " + video_fps);
}

//音频信道
if (mineType.startsWith("audio/")) {
audio_track_index = i;
is_has_audio = true;

try {
audio_media_extractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}


if(mineType.equals("audio/mp4a-latm"))
{
audio_codec_id = 0x10002;
}

audio_sample_rate = trackFormat.getInteger(MediaFormat.KEY_SAMPLE_RATE);//获取采样率
int audioTrackBitrate = trackFormat.getInteger(MediaFormat.KEY_BIT_RATE); //获取比特率
int channels = trackFormat.getInteger(MediaFormat.KEY_CHANNEL_COUNT); //获取声道数量

Log.e(TAG, "mp4 audio_sample_rate " + audio_sample_rate + ", audioTrackBitrate: " + audioTrackBitrate + ", channels: " + channels);
}
}
}

推送video数据:

if(IsVpsSpsPps(video_header_checker_buffer, video_codec_id))
{
is_key_frame = true;
}

if ( isPushing || isRTSPPublisherRunning || isGB28181StreamRunning) {
libPublisher.SmartPublisherPostVideoEncodedData(publisherHandle, video_codec_id, byteBuffer, video_sample_size, is_key_frame?1:0, cur_sample_time, cur_sample_time);
}

推送audio数据:

int audio_sample_size = audio_media_extractor.readSampleData(byteBuffer, 0);

if(audio_sample_size < 0)
{
Log.i(TAG, "audio reach the end..");
break;
}

long cur_sample_time = audio_media_extractor.getSampleTime()/1000;

if ( isPushing || isRTSPPublisherRunning || isGB28181StreamRunning) {
libPublisher.SmartPublisherPostAudioEncodedData(publisherHandle, audio_codec_id, byteBuffer, audio_sample_size, 0, cur_sample_time, parameter_info, parameter_info_size);
}

上述代码,实现原理很简单,无非就是想把audio video从容器中分离出来,然后打包发出去,我们有做流媒体后视镜相关场景的合作公司,就这么实现过。

方案2:REMOTE_SUBMIX

Android中可以通过使用MediaRecorder.AudioSource.REMOTE_SUBMIX来实现系统声音的录制,这个属性只有系统应用能够使用,而且这个属性会截掉耳机和扬声器的声音,让我们听不到手机中播放音乐或者视频时的声音,而录制结束后会发现播放录制好的文件是有这些声音的。一般来说,做无纸化会议或教育同屏的公司,如果硬件是厂商定制的,可以跟厂商提出来,修改ROM,得到内录audio权限和数据。为此,我们专门设计了个接口,便于有这个权限的厂商使用。

REMOTE_SUBMIX可以实现内录功能,有几点需要注意:需要有系统权限,而且会截走扬声器和耳机的声音,也就是说再录音时本地无法播放声音,对于系统权限,可在AndroidManifest.xml添加 android:sharedUserId="android.uid.system",然后使用系统签名来打包应用。 

    private void CheckInitAudioRecorder() {
if (audioRecord_ == null) {
//audioRecord_ = new NTAudioRecord(this, 1);

audioRecord_ = new NTAudioRecordV2(this);
}

if (audioRecord_ != null) {
Log.i(TAG, "CheckInitAudioRecorder call audioRecord_.start()+++...");

audioRecordCallback_ = new NTAudioRecordV2CallbackImpl();

//audioRecord_.IsMicSource(true); //如音频采集声音过小,建议开启

// audioRecord_.IsRemoteSubmixSource(true);

audioRecord_.AddCallback(audioRecordCallback_);

audioRecord_.Start();

Log.i(TAG, "CheckInitAudioRecorder call audioRecord_.start()---...");
}
}

方案3:AudioPlaybackCapture API

也是本文提到的重点,实际上,Android 10 已引入 AudioPlaybackCapture API。应用可以借助此 API 复制其他应用正在播放的音频。此功能类似于屏幕采集,但采集对象是音频。主要用例是视频在线播放应用,这些应用希望捕获游戏正在播放的音频。对于其音频正在被捕获的应用,Capture API 不会影响该应用的延迟时间。

为确保安全性和隐私,“捕获播放的音频”功能会施加一些限制。为了能够捕获音频,应用必须满足以下要求:

捕获和播放音频的应用必须使用同一份用户个人资料。

捕获音频

如要从其他应用中捕获音频,您的应用必须构建 ​​AudioRecord​​ 对象,并向其添加 ​​AudioPlaybackCaptureConfiguration​​。请按以下步骤操作:

  1. 调用 ​​AudioPlaybackCaptureConfiguration.Builder.build()​​ 以构建 ​​AudioPlaybackCaptureConfiguration​​。
  2. 通过调用 ​​setAudioPlaybackCaptureConfig​​​ 将配置传递到 ​​AudioRecord​​。

采集的话,10.0以上版本,按照上述设置即可获取到数据。

if(android.os.Build.VERSION.SDK_INT >= Build.VERSION_CODES.Q)
{
CheckInitAudioRecorderSpeaker(); //采集扬声器,需要android 10.0+版本
}

private void CheckInitAudioRecorderSpeaker() {
if (audioRecordSpeaker_ == null) {
audioRecordSpeaker_ = new AudioRecordSpeaker(this);
}

if (audioRecordSpeaker_ != null) {
Log.i(TAG, "CheckInitAudioRecorder call audioRecordSpeaker_.start()+++...");

audioRecordSpeakerCallback_ = new AudioRecordSpeakerCallbackImpl();
audioRecordSpeaker_.AddCallback(audioRecordSpeakerCallback_);

audioRecordSpeaker_.Start(mMediaProjection, 44100, 1);
Log.i(TAG, "CheckInitAudioRecorder call audioRecordSpeaker_.start()---...");
}
}

class AudioRecordSpeakerCallbackImpl implements AudioRecordSpeakerCallback {
@Override
public void onAudioRecordSpeakerFrame(ByteBuffer data, int size, int sampleRate, int channel, int per_channel_sample_number) {

//Log.i(TAG, "onAudioRecordSpeakerFrame size=" + size + " sampleRate=" + sampleRate + " channel=" + channel
// + " per_channel_sample_number=" + per_channel_sample_number);

if ( publisherHandle != 0 && (isRecording || isPushingRtmp || isRTSPPublisherRunning) )
{
libPublisher.SmartPublisherOnMixPCMData(publisherHandle, 1, data, 0, size, sampleRate, channel, per_channel_sample_number);
}
}
}

大家注意到,我们数据投递,用的是SmartPublisherOnMixPCMData()这个接口,为什么这么做呢?我们考虑到,在做无纸化同屏或者教育投屏的时候,一般来说,主要还是采集麦克风音频为主,中间如果有视频播放或者类似需求的时候,我们把内录audio的打开即可(也可以做混音模式,或者推送过程中,实时静音麦克风或扬声器数据源,当然也可以实时调节二者的音量),具体在初始化的时候,可以做下设置:

//audio mix模式下, 如果需要切换麦克风和扬声器数据源,针对麦克风或扬声器实时静音即可
//混音模式下,也可以针对麦克风或扬声器,做实时音量调节
boolean is_audio_mix = true; //是否混音
libPublisher.SmartPublisherSetAudioMix(publisherHandle, is_audio_mix?1:0);

if(is_audio_mix)
{
int index = 0; //0: 麦克风音量调节 1: 扬声器音量调节
libPublisher.SmartPublisherSetInputAudioVolume(publisherHandle, index, 0.0f);
}

无图无真相,Android平台RTMP推送端或者轻量级RTSP服务测,采集到屏幕画面和扬声器声音,打包传输,RTMP或RTSP播放端截到的同屏画面如下(本来想放一段视频的,没找到传视频的地方):

Android平台实现系统内录(捕获播放的音频)并推送RTMP服务技术方案探究

总结

低版本的Android系统,方案1应该是相对可行但局限很大的选择,方案2大多时候,非定制设备,很难满足权限要求,方案3对Android系统版本要求比较高。

通过测试,方案3除了对Android版本要求比较高外,体验式最好的,感兴趣的开发者,可以尝试看看,如果是特定场景下,本身选用的设备,Android的版本就比较高,又有内录audio需求的话,无疑是非常不错的选择。