关于SDL显示H264的困惑

时间:2022-07-24 12:03:24
int _tmain(int argc, _TCHAR* argv[])  
{  
    AVFormatContext *pFormatCtx;  
    int             i, videoindex;  
    AVCodecContext  *pCodecCtx;  
    AVCodec         *pCodec;  
    char filepath[]="nwn.mp4";  
    av_register_all();  
    avformat_network_init();  
    pFormatCtx = avformat_alloc_context();  
    if(avformat_open_input(&pFormatCtx,filepath,NULL,NULL)!=0){  
        printf("无法打开文件\n");  
        return -1;  
    }  
    if(av_find_stream_info(pFormatCtx)<0)  
    {  
        printf("Couldn't find stream information.\n");  
        return -1;  
    }  
    videoindex=-1;  
    for(i=0; i<pFormatCtx->nb_streams; i++)   
        if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO)  
        {  
            videoindex=i;  
            break;  
        }  
        if(videoindex==-1)  
        {  
            printf("Didn't find a video stream.\n");  
            return -1;  
        }  
        pCodecCtx=pFormatCtx->streams[videoindex]->codec;  
        pCodec=avcodec_find_decoder(pCodecCtx->codec_id);  
        if(pCodec==NULL)  
        {  
            printf("Codec not found.\n");  
            return -1;  
        }  
        if(avcodec_open(pCodecCtx, pCodec)<0)  
        {  
            printf("Could not open codec.\n");  
            return -1;  
        }  
        AVFrame *pFrame,*pFrameYUV;  
        pFrame=avcodec_alloc_frame();  
        pFrameYUV=avcodec_alloc_frame();  
        uint8_t *out_buffer;  
        out_buffer=new uint8_t[avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height)];  
        avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);  
//------------SDL----------------  
        if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) {    
            printf( "Could not initialize SDL - %s\n", SDL_GetError());   
            exit(1);  
        }   
        SDL_Surface *screen;   
        screen = SDL_SetVideoMode(pCodecCtx->width, pCodecCtx->height, 0, 0);  
        if(!screen) {  printf("SDL: could not set video mode - exiting\n");    
        exit(1);  
        }  
        SDL_Overlay *bmp;   
        bmp = SDL_CreateYUVOverlay(pCodecCtx->width, pCodecCtx->height,SDL_YV12_OVERLAY, screen);   
        SDL_Rect rect;  
//---------------  
        int ret, got_picture;  
        static struct SwsContext *img_convert_ctx;  
        int y_size = pCodecCtx->width * pCodecCtx->height;  
  
        AVPacket *packet=(AVPacket *)malloc(sizeof(AVPacket));  
        av_new_packet(packet, y_size);  
        //输出一下信息-----------------------------  
        printf("文件信息-----------------------------------------\n");  
        av_dump_format(pFormatCtx,0,filepath,0);  
        printf("-------------------------------------------------\n");  
        //------------------------------  
        while(av_read_frame(pFormatCtx, packet)>=0)  
        {  
            if(packet->stream_index==videoindex)  
            {  
                ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);  
                if(ret < 0)  
                {  
                    printf("解码错误\n");  
                    return -1;  
                }  
                if(got_picture)  
                {  
                    img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);   
                    sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);  
  
                    SDL_LockYUVOverlay(bmp);  
                    bmp->pixels[0]=pFrameYUV->data[0];  
                    bmp->pixels[2]=pFrameYUV->data[1];  
                    bmp->pixels[1]=pFrameYUV->data[2];       
                    bmp->pitches[0]=pFrameYUV->linesize[0];  
                    bmp->pitches[2]=pFrameYUV->linesize[1];     
                    bmp->pitches[1]=pFrameYUV->linesize[2];  
                    SDL_UnlockYUVOverlay(bmp);   
                    rect.x = 0;      
                    rect.y = 0;      
                    rect.w = pCodecCtx->width;      
                    rect.h = pCodecCtx->height;      
                    SDL_DisplayYUVOverlay(bmp, &rect);   
                    //延时40ms  
                    SDL_Delay(40);  
                }  
            }  
            av_free_packet(packet);  
        }  
        delete[] out_buffer;  
        av_free(pFrameYUV);  
        avcodec_close(pCodecCtx);  
        avformat_close_input(&pFormatCtx);  
  
        return 0;  
}  



这段代码有几点困惑的地方:
1.avcodec_decode_video2()函数解码后,pFrame的data[0],data[1],data[2]中存的就是YUV数据bmp->pixels直接赋值pFrame中的数据,为什么还要用函数 sws_scale()进行转换,存到pFrameYUV,而且转化后还是YUV数据,这有什么区别吗?(我测试过,是需要转换的,否则显示出来花的)。

2.pFrameYUV中的data[0],data[1],data[2]分别为Y,U,V分量,为什么分别赋给bmp->pixels[0],bmp->pixels[2],bmp->pixels[1],难道bmp中的pixels[0],pixels[1],pixels[2]分别对应Y,V,U分量吗?这个问题我查资料没查出来,谁能指点下?

3 个解决方案

#1


img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL); 
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);

if(memcmp(pFrame->data[0],pFrameYUV->data[0],pFrameYUV->linesize[0]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[1],pFrameYUV->data[1],pFrameYUV->linesize[1]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[2],pFrameYUV->data[2],pFrameYUV->linesize[2]) == 0)
{
int a = 0;
}

而且我用上面语句检查了,发现,转化前后YUV数据一样,那为什么还要用img_convert_ctx 进行转化呢

#2


你说的问题二,这样做的目的是防止图片颠倒。是对应的yuv分量。我之前做保存图片的时候,分别保存出来用将y u v分量转成jpg文件的软件转出来图片是对的。

#3


你说的问题一:是利用img_convert_ctx转化器将yuv数据转成可以显示的PIX_FMT_YUV420P格式的数据

#1


img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL); 
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);

if(memcmp(pFrame->data[0],pFrameYUV->data[0],pFrameYUV->linesize[0]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[1],pFrameYUV->data[1],pFrameYUV->linesize[1]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[2],pFrameYUV->data[2],pFrameYUV->linesize[2]) == 0)
{
int a = 0;
}

而且我用上面语句检查了,发现,转化前后YUV数据一样,那为什么还要用img_convert_ctx 进行转化呢

#2


你说的问题二,这样做的目的是防止图片颠倒。是对应的yuv分量。我之前做保存图片的时候,分别保存出来用将y u v分量转成jpg文件的软件转出来图片是对的。

#3


你说的问题一:是利用img_convert_ctx转化器将yuv数据转成可以显示的PIX_FMT_YUV420P格式的数据