camShift实现目标跟踪

时间:2022-03-26 00:37:59

过程:

    反向投影,meanShift算法,camShift算法。

简要概述:基于颜色分布的目标跟踪(需将RGB空间转到HSV空间,利用H分量计算)

    反向投影:利用直方图,求输入图中对应像素在目标图中的概率(出现次数频率),作为输出图对应像素的值。

    meanShift算法:均值漂移,知道收敛到设定值。

    camShift算法:调用meanShift,实现自适应大小的目标跟踪。


//对运动物体的跟踪:
//如果背景固定,可用帧差法 然后在计算下连通域 将面积小的去掉即可
//如果背景单一,即你要跟踪的物体颜色和背景色有较大区别 可用基于颜色的跟踪 如CAMSHIFT 鲁棒性都是较好的
//如果背景复杂,如背景中有和前景一样的颜色 就需要用到一些具有预测性的算法 如卡尔曼滤波等 可以和CAMSHIFT结合
#include "camShift.h"

IplImage *image = 0, *hsv = 0, *hue = 0, *mask = 0, *backproject = 0, *histimg = 0;
//用HSV中的Hue分量进行跟踪
CvHistogram *hist = 0;//直方图类
int backproject_mode = 0;
int select_object = 0;//是否用鼠标操作
int track_object = 0;
int show_hist = 1;
CvPoint origin;
CvRect selection;//选择区域
CvRect track_window;//追踪窗口,矩形框偏移,感兴趣区域
CvBox2D track_box; // tracking 返回的方形区域 box,带角度
//typedef struct CvBox2D
//{
//CvPoint2D32f center; /* 盒子的中心 */
//CvSize2D32f size; /* 盒子的长和宽 */
//float angle; /* 水平轴与第一个边的夹角,用弧度表示*/
//}实际上是椭圆的外接矩形,不同于CvRect结构,此矩形可以是倾斜的。画椭圆那个函数也用到这个结构。
CvConnectedComp track_comp;
//连接部件
// typedef struct CvConnectedComp {
// double area; /* 连通域的面积 */
// float value; /* 分割域的灰度缩放值 */
// CvRect rect; /* 分割域的 ROI */
// } CvConnectedComp;
int hdims = 48;//划分直方图bins的个数,越多越精确
float hranges_arr[] = {0,180};//像素值的范围
float* hranges[] = {hranges_arr};//用于初始化CvHistogram类
int vmin = 10, vmax = 256, smin = 30;//用于设置滑动条

//鼠标回调函数,该函数用鼠标进行跟踪目标的选择
void on_mouse( int event, int x, int y, int flags,void* param ) //源程序丢失 void* param
{
if( !image )
return;

if( image->origin )
y = image->height - y;
//如果图像原点坐标在左下,则将其改为左上
if( select_object )
//select_object为1,表示在用鼠标进行目标选择此时对矩形类selection用当前的鼠标位置进行设置
{
//注释:#define MIN(a,b) ((a) > (b) ? (b) : (a))求ab中较小数
selection.x = MIN(x,origin.x);
selection.y = MIN(y,origin.y);
//注释:#define CV_IABS(a) (((a) ^ ((a) < 0 ? -1 : 0)) - ((a) < 0 ? -1 : 0))求绝对值
selection.width = selection.x + CV_IABS(x - origin.x);
selection.height = selection.y + CV_IABS(y - origin.y);

selection.x = MAX( selection.x, 0 );
selection.y = MAX( selection.y, 0 );
selection.width = MIN( selection.width, image->width );
selection.height = MIN( selection.height, image->height );
selection.width -= selection.x;
selection.height -= selection.y;

}

switch( event )
{
case CV_EVENT_LBUTTONDOWN: //鼠标按下,开始点击选择跟踪物体
origin = cvPoint(x,y);
selection = cvRect(x,y,0,0);
select_object = 1;
break;
case CV_EVENT_LBUTTONUP://鼠标松开,完成选择跟踪物体
select_object = 0;
if( selection.width > 0 && selection.height > 0 )//如果选择物体有效,则打开跟踪功能
track_object = -1;
#ifdef _DEBUG
printf("\n # 鼠标的选择区域:");
printf("\n X = %d, Y = %d, Width = %d, Height = %d",selection.x, selection.y, selection.width, selection.height);
#endif
break;
}
}


CvScalar hsv2rgb( float hue )
//颜色饱和度亮度,转换成,红绿蓝
{
int rgb[3], p, sector;
static const int sector_data[][3] = {{0,2,1}, {1,2,0}, {1,0,2}, {2,0,1}, {2,1,0}, {0,1,2}};
hue *= 0.033333333333333333333333333333333f;
sector = cvFloor(hue);
p = cvRound(255*(hue - sector));
p ^= sector & 1 ? 255 : 0;

rgb[sector_data[sector][0]] = 255;
rgb[sector_data[sector][1]] = 0;
rgb[sector_data[sector][2]] = p;

#ifdef _DEBUG
printf("\n # Convert HSV to RGB:");
printf("\n HUE = %f", hue);
printf("\n R = %d, G = %d, B = %d", rgb[0],rgb[1],rgb[2]);
#endif

return cvScalar(rgb[2], rgb[1], rgb[0],0);
}

int camShift( int argc, char** argv )
{
CvCapture* capture = 0;//定义视频获取结构
IplImage* frame = 0;

if( argc == 1 || (argc == 2 && strlen(argv[1]) == 1 && isdigit(argv[1][0])))
capture = cvCaptureFromCAM( argc == 2 ? argv[1][0] - '0' : 0 );//摄像头
else if( argc == 2 )
capture = cvCaptureFromAVI( argv[1] );//视频文件

if( !capture )
{
fprintf(stderr,"Could not initialize capturing...\n");
return -1;
}

printf( "Hot keys: \n"
"\tESC - quit the program\n"
"\tc - stop the tracking\n"
"\tb - switch to/from backprojection view\n"
"\th - show/hide object histogram\n"
"To initialize tracking, select the object with mouse\n" );

cvNamedWindow( "Histogram", 1 );//用于显示直方图
cvNamedWindow( "CamShiftDemo", 1 );//用于显示视频

cvSetMouseCallback( "CamShiftDemo", on_mouse, NULL );//设置鼠标回调函数
cvCreateTrackbar( "Vmin", "CamShiftDemo", &vmin, 256, 0 );//设置滑动条,亮度最小值
cvCreateTrackbar( "Vmax", "CamShiftDemo", &vmax, 256, 0 );//设置滑动条,亮度最大值
cvCreateTrackbar( "Smin", "CamShiftDemo", &smin, 256, 0 );//设置滑动条,饱和度最小值

for(;;) //进入视频帧处理主循环
{
int i, bin_w, c;

frame = cvQueryFrame( capture );//获取一帧
if( !frame )
break;
//printf("*****************%d\n",frame->origin);

if( !image ) //image为0,表明刚开始还未对image操作过,先建立一些缓冲区
{
/* allocate all the buffers */
image = cvCreateImage( cvGetSize(frame), 8, 3 );//三通道彩色图像
image->origin = frame->origin;
hsv = cvCreateImage( cvGetSize(frame), 8, 3 );//三通道彩色图像
hue = cvCreateImage( cvGetSize(frame), 8, 1 );//单通道灰度图形,单一分量灰度图
mask = cvCreateImage( cvGetSize(frame), 8, 1 );//单通道灰度图像,掩膜值
backproject = cvCreateImage( cvGetSize(frame), 8, 1 );//分配反向投影图空间,大小一样,单通道

hist = cvCreateHist( 1, &hdims, CV_HIST_ARRAY, hranges, 1 );//分配直方图空间
histimg = cvCreateImage( cvSize(320,200), 8, 3 );//分配用于直方图显示的空间
cvZero( histimg );//置背景为黑色
}

cvCopy( frame, image, 0 );//复制帧图像
cvCvtColor( image, hsv, CV_BGR2HSV ); // 彩色空间转换 BGR to HSV

if( track_object ) //track_object非零,表示有需要跟踪的物体
{
int _vmin = vmin, _vmax = vmax;

cvInRangeS( hsv, cvScalar(0,smin,MIN(_vmin,_vmax),0),cvScalar(180,256,MAX(_vmin,_vmax),0), mask );
//CVAPI(void) cvInRangeS( const CvArr* src, CvScalar lower,CvScalar upper, CvArr* dst );
//制作掩膜板!
//只处理像素值为H:0~180,S:smin~256,V:vmin~vmax之间的部分
//用于检查图像中像素的灰度是否属于某一指定范围。
//cvInRange()检查src的每一个像素点是否落在lower和upper范围中。
//如果src的值大于或者等于lower值,并且小于upper值,那么dst中对应的对应值将被设置为0xff;
//否则,dst的值将被设置为0。

cvSplit( hsv, hue, 0, 0, 0 ); // 分割多通道为单通道,这里只提取 HUE 分量
//函数原型:void cvSplit(const CvArr* src, CvArr* dst0, CvArr* dst1, CvArr* dst2, CvArr* dst3)

if( track_object < 0 )
//如果需要跟踪的物体还没有进行属性提取,则进行选取框类的图像属性提取
{
float max_val = 0.f;
cvSetImageROI( hue, selection ); // 得到选择区域 for mask
cvSetImageROI( mask, selection ); //设置掩膜板选择框为ROI

cvCalcHist( &hue, hist, 0, mask ); // 计算满足mask的直方图
cvGetMinMaxHistValue( hist, 0, &max_val, 0, 0 ); // 只找最大值
/* Finds indices and values of minimum and maximum histogram bins
CVAPI(void) cvGetMinMaxHistValue( const CvHistogram* hist,
float* min_value, float* max_value,
int* min_idx CV_DEFAULT(NULL),
int* max_idx CV_DEFAULT(NULL));*/
cvConvertScale( hist->bins, hist->bins, max_val ? 255. / max_val : 0., 0 );
// 缩放 bin 到区间 [0,255]// 对直方图的数值转为0~255
//Converts one array to another with optional linear transformation.
//dst(I) = scalesrc(I) + (shift0; shift1; :::)
/*CVAPI(void) cvConvertScale( const CvArr* src, CvArr* dst,
double scale CV_DEFAULT(1),
double shift CV_DEFAULT(0) );*/
cvResetImageROI( hue ); // remove ROI
cvResetImageROI( mask ); //去除ROI

track_window = selection;//追踪区域
track_object = 1; //置track_object为1,表明属性提取完成

cvZero( histimg );

bin_w = histimg->width / hdims; // hdims: 条的个数,则 bin_w 为条的宽度

// 画直方图
for( i = 0; i < hdims; i++ )
//画直方图到图像空间
{
int val = cvRound( cvGetReal1D(hist->bins,i)*histimg->height/255 );
//int cvRound (double value)//对一个double型的数进行四舍五入,并返回一个整型数!
CvScalar color = hsv2rgb(i*180.f/hdims);
cvRectangle( histimg, cvPoint(i*bin_w,histimg->height),
cvPoint((i+1)*bin_w,histimg->height - val),color, -1, 8, 0 );//矩形框
}
}

/*
函数 cvCalcBackProject 计算直方图的反向投影.
对于所有输入的单通道图像同一位置的象素数组,该函数根据相应的象素数组(RGB),
放置其对应的直方块的值到输出图像中。
用统计学术语,输出图像象素点的值是观测数组在某个分布(直方图)下的概率。
例如,为了发现图像中的红色目标,可以这么做:
1、对红色物体计算_色调直方图_,假设图像仅仅包含该物体。则直方图有可能有极值,对应着红颜色。
2、对将要搜索目标的输入图像,使用直方图计算其色调平面的_反向投影_,然后对图像做_阈值_操作。
3、在产生的图像中发现_连通部分_,然后使用某种附加准则选择正确的部分,比如最大的连通部分。
这是 Camshift 彩色目标跟踪器中的一个逼进算法,
除了第三步,CAMSHIFT 算法使用了上一次目标位置来定位反向投影中的目标。
*/
cvCalcBackProject( &hue, backproject, hist );//!!!!!!!!重要!!!!!!!!//
//void cvCalcBackProject(IplImage** image, CvArr* backProject, const CvHistogram* hist)
//计算hue的反向投影图,(或者叫概率图)

cvAnd( backproject, mask, backproject, 0 );//与运算
//void cvAnd(const CvArr* src1, const CvArr* src2, CvArr* dst, const CvArr* mask=NULL)
//得到掩膜内的反向投影

// calling CAMSHIFT 算法模块,调用cvMeanShift算法,收敛到概率最大的区域。
cvCamShift( backproject,
track_window,
cvTermCriteria( CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1 ),
&track_comp,
&track_box );//使用MeanShift算法对backproject中的内容进行搜索,返回跟踪结果

track_window = track_comp.rect;//收敛后搜索窗口的位置,得到跟踪结果的矩形框

if( backproject_mode ) //int backproject_mode = 0;
cvCvtColor( backproject, image, CV_GRAY2BGR ); // 使用backproject灰度图像
if( image->origin ) //image->origin = frame->origin;
track_box.angle = -track_box.angle;
cvEllipseBox( image, track_box, CV_RGB(255,0,0), 3, CV_AA, 0 );
//void cvEllipseBox(CvArr* img, CvBox2D box, CvScalar color, int thickness=1, int lineType=8, int shift=0 )
//画椭圆,画出跟踪结果的位置
}

if( select_object && selection.width > 0 && selection.height > 0 )
//如果正处于物体选择,画出选择框
{
cvSetImageROI( image, selection );
cvXorS( image, cvScalarAll(255), image, 0 );//按位异或运算
//void cvXorS(const CvArr* src, CvScalar value, CvArr* dst, const CvArr* mask=NULL)
//src或value=dst
cvResetImageROI( image );
}

cvShowImage( "CamShiftDemo", image );
cvShowImage( "Histogram", histimg );

c = cvWaitKey(10);
if( c == 27 )
break; // exit from for-loop
switch( c )
{
case 'b':
backproject_mode ^= 1;//^异或操作,0^0=0,0^1=1,1^0=1,1^1=0
break;
case 'c':
track_object = 0;
cvZero( histimg );//直方图清除后,track_object = 0;方便重新取属性
break;
case 'h':
show_hist ^= 1;
if( !show_hist )
cvDestroyWindow( "Histogram" );
else
cvNamedWindow( "Histogram", 1 );
break;
default:
;
}
}

cvReleaseImage(&image);

cvReleaseCapture( &capture );
cvDestroyWindow("CamShiftDemo");

return 0;
}