android多媒体框架

时间:2022-01-01 20:35:27

android多媒体框架演变历史

       android 的多媒体框架从android诞生以来,发生了天翻地覆的变化,包括引擎的更改,单独处理流媒体的播放器nuplayer的加入,到最新jellybean(android4.1)nuplayer逐步加入stagefrightplayer的功能,可能以后stagefight引擎会被nuplayer取代,那都是后话了。但是openomx(即引擎连接codec的纽带)一直都得到了保持。

       在Froyo2.2 以前,multimedia framework 的引擎是一直都是opencore,但为啥用stagefright替代呢,由于我没有开发过opencore,不便下结论,但从网上一些言论来看,估计是opencore太过庞大,不太好维护,具体真正原因就得问google了,如果你知道具体原因,可以给我留言,在此多谢了!

       Gingerbread  android2.3,加入了真正的支持流媒体的播发器nuplayer,如果你下有源码,可以用gitk \nuplayer,从gitk可以看到如下提交:Initial support for a true streaming player for mpeg2 transport streams. 2010.12。

      android 3.0 到android 4.0 ,总体框架没有多大变化。

      android4.1 (jellybean) 最大的变化是给c/c++部分的多媒体框架单独设立了一个framework/av的目录,给它开辟了一个git库,即从framework/base下的git库分离了出来,总算给多媒体找了个港湾。 

jellybean多媒体架构

        multimedia framework 架构 由三大部分构成:供上层程序调用的java API,连接java和C/C++的jni部分,多媒体引擎(stagefright)和codec接口(openmax interface)。前面两部代码在framework/base/media 下,后一部分在framework/av文件夹下。如果你修改的是java API接口或加LOG后编译可以用如下命令:make framework ,JNI 部分 make media_jni,第三部分有三个libs组成:libmedia ,libmediaplayerservice, libstagefright,命令如下 make media ,make stagefright , make mediaplayerservice. 生成各自的.so文件,用adb push 到system/下就可以调试了。

 

      android多媒体框架

 

 android多媒体框架

 

 

      

      从上两图,我们可以发现上层APK要播放视频,首先得获得一个player,而这个player的类型根据你媒体文件的类型来决定的,分配的任务由mediaplayerservice来完成,除了获得player外最主要的是到底选用哪种编码器进行编解码,这个过程由awesomeplayer和omxcodec来完成,至于声音和图像就交由audioflinger和surfaceflinger来完成了。具体的调用实现,下一篇videoplayerback将会慢慢讨论和学习。