int _tmain(int argc, _TCHAR* argv[])
{
AVFormatContext *pFormatCtx;
int i, videoindex;
AVCodecContext *pCodecCtx;
AVCodec *pCodec;
char filepath[]="nwn.mp4";
av_register_all();
avformat_network_init();
pFormatCtx = avformat_alloc_context();
if(avformat_open_input(&pFormatCtx,filepath,NULL,NULL)!=0){
printf("无法打开文件\n");
return -1;
}
if(av_find_stream_info(pFormatCtx)<0)
{
printf("Couldn't find stream information.\n");
return -1;
}
videoindex=-1;
for(i=0; i<pFormatCtx->nb_streams; i++)
if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO)
{
videoindex=i;
break;
}
if(videoindex==-1)
{
printf("Didn't find a video stream.\n");
return -1;
}
pCodecCtx=pFormatCtx->streams[videoindex]->codec;
pCodec=avcodec_find_decoder(pCodecCtx->codec_id);
if(pCodec==NULL)
{
printf("Codec not found.\n");
return -1;
}
if(avcodec_open(pCodecCtx, pCodec)<0)
{
printf("Could not open codec.\n");
return -1;
}
AVFrame *pFrame,*pFrameYUV;
pFrame=avcodec_alloc_frame();
pFrameYUV=avcodec_alloc_frame();
uint8_t *out_buffer;
out_buffer=new uint8_t[avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height)];
avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
//------------SDL----------------
if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) {
printf( "Could not initialize SDL - %s\n", SDL_GetError());
exit(1);
}
SDL_Surface *screen;
screen = SDL_SetVideoMode(pCodecCtx->width, pCodecCtx->height, 0, 0);
if(!screen) { printf("SDL: could not set video mode - exiting\n");
exit(1);
}
SDL_Overlay *bmp;
bmp = SDL_CreateYUVOverlay(pCodecCtx->width, pCodecCtx->height,SDL_YV12_OVERLAY, screen);
SDL_Rect rect;
//---------------
int ret, got_picture;
static struct SwsContext *img_convert_ctx;
int y_size = pCodecCtx->width * pCodecCtx->height;
AVPacket *packet=(AVPacket *)malloc(sizeof(AVPacket));
av_new_packet(packet, y_size);
//输出一下信息-----------------------------
printf("文件信息-----------------------------------------\n");
av_dump_format(pFormatCtx,0,filepath,0);
printf("-------------------------------------------------\n");
//------------------------------
while(av_read_frame(pFormatCtx, packet)>=0)
{
if(packet->stream_index==videoindex)
{
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
if(ret < 0)
{
printf("解码错误\n");
return -1;
}
if(got_picture)
{
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);
SDL_LockYUVOverlay(bmp);
bmp->pixels[0]=pFrameYUV->data[0];
bmp->pixels[2]=pFrameYUV->data[1];
bmp->pixels[1]=pFrameYUV->data[2];
bmp->pitches[0]=pFrameYUV->linesize[0];
bmp->pitches[2]=pFrameYUV->linesize[1];
bmp->pitches[1]=pFrameYUV->linesize[2];
SDL_UnlockYUVOverlay(bmp);
rect.x = 0;
rect.y = 0;
rect.w = pCodecCtx->width;
rect.h = pCodecCtx->height;
SDL_DisplayYUVOverlay(bmp, &rect);
//延时40ms
SDL_Delay(40);
}
}
av_free_packet(packet);
}
delete[] out_buffer;
av_free(pFrameYUV);
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);
return 0;
}
这段代码有几点困惑的地方:
1.avcodec_decode_video2()函数解码后,pFrame的data[0],data[1],data[2]中存的就是YUV数据bmp->pixels直接赋值pFrame中的数据,为什么还要用函数 sws_scale()进行转换,存到pFrameYUV,而且转化后还是YUV数据,这有什么区别吗?(我测试过,是需要转换的,否则显示出来花的)。
2.pFrameYUV中的data[0],data[1],data[2]分别为Y,U,V分量,为什么分别赋给bmp->pixels[0],bmp->pixels[2],bmp->pixels[1],难道bmp中的pixels[0],pixels[1],pixels[2]分别对应Y,V,U分量吗?这个问题我查资料没查出来,谁能指点下?
3 个解决方案
#1
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);
if(memcmp(pFrame->data[0],pFrameYUV->data[0],pFrameYUV->linesize[0]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[1],pFrameYUV->data[1],pFrameYUV->linesize[1]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[2],pFrameYUV->data[2],pFrameYUV->linesize[2]) == 0)
{
int a = 0;
}
而且我用上面语句检查了,发现,转化前后YUV数据一样,那为什么还要用img_convert_ctx 进行转化呢
#2
你说的问题二,这样做的目的是防止图片颠倒。是对应的yuv分量。我之前做保存图片的时候,分别保存出来用将y u v分量转成jpg文件的软件转出来图片是对的。
#3
你说的问题一:是利用img_convert_ctx转化器将yuv数据转成可以显示的PIX_FMT_YUV420P格式的数据
#1
img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameYUV->data, pFrameYUV->linesize);
if(memcmp(pFrame->data[0],pFrameYUV->data[0],pFrameYUV->linesize[0]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[1],pFrameYUV->data[1],pFrameYUV->linesize[1]) == 0)
{
int a = 0;
}
if(memcmp(pFrame->data[2],pFrameYUV->data[2],pFrameYUV->linesize[2]) == 0)
{
int a = 0;
}
而且我用上面语句检查了,发现,转化前后YUV数据一样,那为什么还要用img_convert_ctx 进行转化呢
#2
你说的问题二,这样做的目的是防止图片颠倒。是对应的yuv分量。我之前做保存图片的时候,分别保存出来用将y u v分量转成jpg文件的软件转出来图片是对的。
#3
你说的问题一:是利用img_convert_ctx转化器将yuv数据转成可以显示的PIX_FMT_YUV420P格式的数据