几年来,我们在做无纸化同屏或在线教育相关场景的时候,总是被一件事情困扰:如何实现Android平台的系统内录,并推送到其他播放端,常用的场景比如做无纸化会议或教育的时候,主讲人或老师需要放一个视频,该怎么办呢?这里我们分析三种可行的技术方案:
方案1:解析视频文件推送
Android终端的话,先利用MediaExtractor,把mp4文件的音视频数据分离,然后调用我们publisher模块,实现编码后的数据对接到RTMP服务器,实例代码如下:
/*
* SmartPublisherActivity.java
* Github: https://github.com/daniulive/SmarterStreaming
*/
private void InitMediaExtractor(){
File mFile = new File("/storage/emulated/0/","2022.mp4");
if (!mFile.exists()){
Log.e(TAG, "mp4文件不存在");
return;
}
MediaExtractor mediaExtractor = new MediaExtractor();
try {
mediaExtractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}
int count = mediaExtractor.getTrackCount();//获取轨道数量
Log.e(TAG, "轨道数量 = "+count);
for (int i = 0; i < count; i++)
{
MediaFormat trackFormat = mediaExtractor.getTrackFormat(i);
String mineType = trackFormat.getString(MediaFormat.KEY_MIME);
Log.e(TAG, i + "编号通道格式 = " + mineType);
//视频信道
if (mineType.startsWith("video/")) {
video_track_index = i;
is_has_video = true;
try {
video_media_extractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}
if(mineType.equals("video/avc"))
{
video_codec_id = 1;
}
else if(mineType.equals("video/hevc"))
{
video_codec_id = 2;
}
int width = trackFormat.getInteger(MediaFormat.KEY_WIDTH);
int height = trackFormat.getInteger(MediaFormat.KEY_HEIGHT);
long duration = trackFormat.getLong(MediaFormat.KEY_DURATION);//总时间
int video_fps = trackFormat.getInteger(MediaFormat.KEY_FRAME_RATE);//帧率
max_sample_size = trackFormat.getInteger(MediaFormat.KEY_MAX_INPUT_SIZE);//获取视频缓存输出的最大大小
Log.e(TAG, "video width " + width + ", height: " + height + ", duration: " + duration + ", max_sample_size: " + max_sample_size + ", fps: " + video_fps);
}
//音频信道
if (mineType.startsWith("audio/")) {
audio_track_index = i;
is_has_audio = true;
try {
audio_media_extractor.setDataSource(mFile.getAbsolutePath());
} catch (IOException e) {
e.printStackTrace();
}
if(mineType.equals("audio/mp4a-latm"))
{
audio_codec_id = 0x10002;
}
audio_sample_rate = trackFormat.getInteger(MediaFormat.KEY_SAMPLE_RATE);//获取采样率
int audioTrackBitrate = trackFormat.getInteger(MediaFormat.KEY_BIT_RATE); //获取比特率
int channels = trackFormat.getInteger(MediaFormat.KEY_CHANNEL_COUNT); //获取声道数量
Log.e(TAG, "mp4 audio_sample_rate " + audio_sample_rate + ", audioTrackBitrate: " + audioTrackBitrate + ", channels: " + channels);
}
}
}
推送video数据:
if(IsVpsSpsPps(video_header_checker_buffer, video_codec_id))
{
is_key_frame = true;
}
if ( isPushing || isRTSPPublisherRunning || isGB28181StreamRunning) {
libPublisher.SmartPublisherPostVideoEncodedData(publisherHandle, video_codec_id, byteBuffer, video_sample_size, is_key_frame?1:0, cur_sample_time, cur_sample_time);
}
推送audio数据:
int audio_sample_size = audio_media_extractor.readSampleData(byteBuffer, 0);
if(audio_sample_size < 0)
{
Log.i(TAG, "audio reach the end..");
break;
}
long cur_sample_time = audio_media_extractor.getSampleTime()/1000;
if ( isPushing || isRTSPPublisherRunning || isGB28181StreamRunning) {
libPublisher.SmartPublisherPostAudioEncodedData(publisherHandle, audio_codec_id, byteBuffer, audio_sample_size, 0, cur_sample_time, parameter_info, parameter_info_size);
}
上述代码,实现原理很简单,无非就是想把audio video从容器中分离出来,然后打包发出去,我们有做流媒体后视镜相关场景的合作公司,就这么实现过。
方案2:REMOTE_SUBMIX
Android中可以通过使用MediaRecorder.AudioSource.REMOTE_SUBMIX来实现系统声音的录制,这个属性只有系统应用能够使用,而且这个属性会截掉耳机和扬声器的声音,让我们听不到手机中播放音乐或者视频时的声音,而录制结束后会发现播放录制好的文件是有这些声音的。一般来说,做无纸化会议或教育同屏的公司,如果硬件是厂商定制的,可以跟厂商提出来,修改ROM,得到内录audio权限和数据。为此,我们专门设计了个接口,便于有这个权限的厂商使用。
REMOTE_SUBMIX可以实现内录功能,有几点需要注意:需要有系统权限,而且会截走扬声器和耳机的声音,也就是说再录音时本地无法播放声音,对于系统权限,可在AndroidManifest.xml添加 android:sharedUserId="android.uid.system",然后使用系统签名来打包应用。
private void CheckInitAudioRecorder() {
if (audioRecord_ == null) {
//audioRecord_ = new NTAudioRecord(this, 1);
audioRecord_ = new NTAudioRecordV2(this);
}
if (audioRecord_ != null) {
Log.i(TAG, "CheckInitAudioRecorder call audioRecord_.start()+++...");
audioRecordCallback_ = new NTAudioRecordV2CallbackImpl();
//audioRecord_.IsMicSource(true); //如音频采集声音过小,建议开启
// audioRecord_.IsRemoteSubmixSource(true);
audioRecord_.AddCallback(audioRecordCallback_);
audioRecord_.Start();
Log.i(TAG, "CheckInitAudioRecorder call audioRecord_.start()---...");
}
}
方案3:AudioPlaybackCapture API
也是本文提到的重点,实际上,Android 10 已引入 AudioPlaybackCapture API。应用可以借助此 API 复制其他应用正在播放的音频。此功能类似于屏幕采集,但采集对象是音频。主要用例是视频在线播放应用,这些应用希望捕获游戏正在播放的音频。对于其音频正在被捕获的应用,Capture API 不会影响该应用的延迟时间。
为确保安全性和隐私,“捕获播放的音频”功能会施加一些限制。为了能够捕获音频,应用必须满足以下要求:
捕获和播放音频的应用必须使用同一份用户个人资料。
捕获音频
如要从其他应用中捕获音频,您的应用必须构建 AudioRecord 对象,并向其添加 AudioPlaybackCaptureConfiguration。请按以下步骤操作:
- 调用 AudioPlaybackCaptureConfiguration.Builder.build() 以构建 AudioPlaybackCaptureConfiguration。
- 通过调用 setAudioPlaybackCaptureConfig 将配置传递到
AudioRecord
。
采集的话,10.0以上版本,按照上述设置即可获取到数据。
if(android.os.Build.VERSION.SDK_INT >= Build.VERSION_CODES.Q)
{
CheckInitAudioRecorderSpeaker(); //采集扬声器,需要android 10.0+版本
}
private void CheckInitAudioRecorderSpeaker() {
if (audioRecordSpeaker_ == null) {
audioRecordSpeaker_ = new AudioRecordSpeaker(this);
}
if (audioRecordSpeaker_ != null) {
Log.i(TAG, "CheckInitAudioRecorder call audioRecordSpeaker_.start()+++...");
audioRecordSpeakerCallback_ = new AudioRecordSpeakerCallbackImpl();
audioRecordSpeaker_.AddCallback(audioRecordSpeakerCallback_);
audioRecordSpeaker_.Start(mMediaProjection, 44100, 1);
Log.i(TAG, "CheckInitAudioRecorder call audioRecordSpeaker_.start()---...");
}
}
class AudioRecordSpeakerCallbackImpl implements AudioRecordSpeakerCallback {
@Override
public void onAudioRecordSpeakerFrame(ByteBuffer data, int size, int sampleRate, int channel, int per_channel_sample_number) {
//Log.i(TAG, "onAudioRecordSpeakerFrame size=" + size + " sampleRate=" + sampleRate + " channel=" + channel
// + " per_channel_sample_number=" + per_channel_sample_number);
if ( publisherHandle != 0 && (isRecording || isPushingRtmp || isRTSPPublisherRunning) )
{
libPublisher.SmartPublisherOnMixPCMData(publisherHandle, 1, data, 0, size, sampleRate, channel, per_channel_sample_number);
}
}
}
大家注意到,我们数据投递,用的是SmartPublisherOnMixPCMData()这个接口,为什么这么做呢?我们考虑到,在做无纸化同屏或者教育投屏的时候,一般来说,主要还是采集麦克风音频为主,中间如果有视频播放或者类似需求的时候,我们把内录audio的打开即可(也可以做混音模式,或者推送过程中,实时静音麦克风或扬声器数据源,当然也可以实时调节二者的音量),具体在初始化的时候,可以做下设置:
//audio mix模式下, 如果需要切换麦克风和扬声器数据源,针对麦克风或扬声器实时静音即可
//混音模式下,也可以针对麦克风或扬声器,做实时音量调节
boolean is_audio_mix = true; //是否混音
libPublisher.SmartPublisherSetAudioMix(publisherHandle, is_audio_mix?1:0);
if(is_audio_mix)
{
int index = 0; //0: 麦克风音量调节 1: 扬声器音量调节
libPublisher.SmartPublisherSetInputAudioVolume(publisherHandle, index, 0.0f);
}
无图无真相,Android平台RTMP推送端或者轻量级RTSP服务测,采集到屏幕画面和扬声器声音,打包传输,RTMP或RTSP播放端截到的同屏画面如下(本来想放一段视频的,没找到传视频的地方):
总结
低版本的Android系统,方案1应该是相对可行但局限很大的选择,方案2大多时候,非定制设备,很难满足权限要求,方案3对Android系统版本要求比较高。
通过测试,方案3除了对Android版本要求比较高外,体验式最好的,感兴趣的开发者,可以尝试看看,如果是特定场景下,本身选用的设备,Android的版本就比较高,又有内录audio需求的话,无疑是非常不错的选择。