HDR sensor 原理介绍

时间:2024-03-23 09:50:09

HDR sensor 原理介绍

一. HDR sensor 原理介绍

  1. 什么是sensor的动态范围(dynamic range):

sensor的动态范围就是sensor在一幅图像里能够同时体现高光和阴影部分内容的能力。

用公式表达这种能力就是:

DR = 20log10(i_max / i_min);//dB

i_max 是sensor的最大不饱和电流----也可以说是sensor刚刚饱和时候的电流

i_min是sensor的底电流(blacklevel) ;

  1. 为什么HDR在成像领域是个大问题:

在自然界的真实情况,有些场景的动态范围要大于100dB。

人眼的动态范围可以达到100dB。

Sensor 的动态范围:

高端的>78 dB;

消费级的 60 dB 上下;

所以当sensor的动态范围小于图像场景动态范围的时候就会出现HDR问题----不是暗处看不清,就是亮处看不清,有的甚至两头都看不清。

HDR sensor 原理介绍

上图暗处看不清–前景处的广告牌和树影太暗看不清。

HDR sensor 原理介绍

上图亮处看不清–远处背景的白云变成了一团白色,完全看不清细节。

  1. 解决HDR问题的数学分析

根据前边动态范围公式

DR = 20log10(i_max / i_min); //dB

所以从数学本质上说要提高DR,就是提高i_max,减小 i_min;

对于10bit输出的sensor,从数学上来说,i_max
=1023,i_min =1;

动态范围DR = 60;

对于12bit输出的sensor, DR = 72;

所以从数学上来看,提高sensor 输出的bit width就可以提高动态范围,从而解决HDR问题。

可是现实上却没有这么简单。

提高sensor的bit width导致不仅sensor的成本提高,整个图像处理器的带宽都得相应提高,消耗的内存也都相应提高,这样导致整个系统的成本会大幅提高。所以大家想出许多办法,既能解决HDR问题,又可以不增加太多成本。

二.HDR Imaging Digital Overlap

Digital Overlap是目前比较流行的sensor HDR 技术,在监控与车载相机等领域的应用非常广泛。Sony于2012年在监控相机市场首先推出基于DOL(digital overlap) HDR技术的图像传感器,之后OV与Onsemi也都推出了与DOL类似的HDR技术的图像传感器,而且应用领域不局限于监控这种传统HDR imaging的市场,而且扩展到了Automotive camera市场。现在Sony已经推出了第二代支持虚拟通道DOL HDR技术的sensor。

1.什么是时域多帧HDR技术

相机在时间上连续输出由欠曝到过曝的图像,然后做图像融合,得到HDR图像。

HDR sensor 原理介绍

融合后HDR图像

HDR sensor 原理介绍

比较典型的一种融合方法是根据luminance,contrast,motion等条件,对第K帧图像的像素[i,j]给出权重。Wij,k 是第K帧,位置i,j像素的权重,Xk((i,j)是原始像素值,Xf(i,j)是融合后的像素值。公式如下

HDR sensor 原理介绍

对彩色图像,权重的计算会考虑色彩的饱和度等因素。

2.传统时域多帧HDR技术存在的局限

由于传统时域多帧是基于连续曝光的整帧图像(Frame Based)进行融合,所以图像之间的间隔时间就是一帧图像的周期,由此会产生很多artefacts:

场景内物体增减

HDR sensor 原理介绍

近距离物体快速移动形成拖影

HDR sensor 原理介绍

Color artefact

HDR sensor 原理介绍

Frame based的多曝光HDR技术常用于still image 的capture,也有视频HDR 采用这种技术,比如sensor以60fps的帧率交替输出长短曝光,融合后输出30fps的HDR图像。

HDR sensor 原理介绍

早期的HDR video有采用这种技术,自从DOL技术出现后,这种Frame based Video HDR技术就逐渐退出历史舞台了。

3.什么是DOL HDR

DOL HDR 也叫做line
interleaving HDR 技术。以两曝光DOL为例,sensor每行会以长短曝光两次先后输出,从readout角度来看,就是长曝光帧与短曝光帧 line interleaving 依次输出,如下图,第一行L输出,第一行S输出,第二行L输出,第二行S输出,以此类推。

HDR sensor 原理介绍

frame based HDR,长短曝光帧的间隔是一个帧周期,也就是必须一整帧(长)曝光结束,再开始一整帧(短)曝光,如下图

HDR sensor 原理介绍

对于DOL HDR而言,由于line interleaving(行的交织),存在两帧的overlap,等于一帧输出没结束,下一帧就来了,长短曝光帧的间隔大大缩小了。

从下图可见,长曝光帧与短曝光帧overlap了一部分,所以这种技术叫digital overlap。

HDR sensor 原理介绍

4.DOL长短曝光帧的时间间隔

前边说过,Frame based HDR的长短曝光帧的间隔是一帧的时间,那么DOL HDR的长短曝光帧的时间间隔是多大呢?

如果先输出长曝光的话

HDR sensor 原理介绍

如果先输出短曝光的话
HDR sensor 原理介绍

T= long exposure 的时间

所以当然是先输出长曝光,这样T(时间间隔)会更小。。

5.DOL长短曝光时间比与动态范围扩展

以两曝光DOL 为例

Exposure ratio = Long exposure time/ short
exposure time

假设Exposure ratio = 16,假设在xinhao 没有饱和的条件下,相当于曝光最大值增大了16倍:2^4。也就是动态范围扩大了4个bit。

以此类推,每增加一个曝光帧,如果exposure ratio =16,动态范围就可以扩大4bit。

按照一般HDR sensor 单曝光为12bit来算的话,4曝光就可以让sensor输出的动态范围扩大到24bit(12+4+4+4)。

exposure ratio 也不是越大越好,exposure ratio会受到三方面的制约,图像质量,sensor设计以及isp line delay buffer。

从图像质量上来说,短曝光时间越短,图像噪声越高,长曝光越长,motion的影响越大。Exposure Ratio越大,在图像融合后的SNR drop也越大。

从sensor设计上来说,长短曝光之比受到读出电路的限制,sony的DOL第二代采用虚拟通道技术一定程度改善了这个限制。

从ISP的角度来说line delay buffer 也限制了最大曝光时间。在短曝光行出来之前,第一个长曝光行应该还在delay buffer里,这样才能两者对齐好给后面的frame stitch操作。而长短曝光比越大,需要的line delay buffer就越大。

HDR sensor 原理介绍

对于sensor做hdr融合case而言,line delay buffer size就是固定的,所以ISP倾向于在isp这端做HDR融合,这样可以更灵活的设计。(Maver注:对于车载而言,带宽是个主要关注点,所以大部分用户不会选择在ISP侧做HDR融合)

6.DOL的局限

Sony在推出DOL的时候,宣传DOL是‘准同时’输出长短曝光。既然是‘准同时’,那就还不是同时,所以也会有一些典型时域多帧HDR的图像质量问题,同时DOL也有一些特有的IQ问题。

HDR Transition Artefacts

可以从下左图看到composition noise造成的edge,这种edge有时候会误导机器视觉。

HDR sensor 原理介绍

从DOL hdr的noise profile可以看出来,如下图,在HDR拼接处,可以看到SNR的显著变化,叫做snr drop,当SNR drop大的时候,就会出现明显的edge,如上图所示。

HDR sensor 原理介绍

曝光比越小,SNR drop就越小, 可以想见,如果曝光比为1,也就没有snr drop了。反之,曝光比越大,动态范围越大,snr drop也越大,如下图所示。

HDR sensor 原理介绍

Flicker

交流电供电光源造成的flickering,如下图:
HDR sensor 原理介绍

为了避免banding,就得让最小曝光时间是半周期的整数倍。

HDR sensor 原理介绍

这样就不会出现banding了。但是由于最小曝光时间变大了,动态范围就损失了。所以有时候为了保证不损失动态范围,就得容忍Flickering。这就得看应用场景了。

类似的问题发生在PWM供电的Led光源上,尤其是交通信号灯以及汽车信号灯,如下图所示

sensor的长曝光帧能catch到led 的light pulse,但是短曝光帧就没catch到,这样也会造成flickering甚至信号灯图像的丢失。

这种flicker或者信号灯信息丢失的问题在车载成像系统上是致命的,所以车载HDR现在更倾向采用spatial based HDR技术,比如Sony采用的sub pixel技术或者OV 采用的split pixel技术。

三.HDR imaging split/sub pixel 技术

我们在上一期讲了时域多帧HDR技术–Digital Overlap. 现在在监控领域的WDR sensor主要采用这种技术,如下图,利用不同的sensor曝光(蓝色线所示)覆盖不同的动态范围,再把多曝光图像stitching起来(红色线所示),达到最大的动态范围输出。Sony的imx290,OV的ov4689都是这个类型典型sensor。

HDR sensor 原理介绍

车载领域也广泛使用Temporal domain HDR技术,但是随着车载相机在ADAS与自动驾驶领域的迅速发展,对图像质量有着特别的需求,导致Temporal domain HDR技术不能满足需要。车载比较典型的两个IQ需求是不能有motion artefact 和 LED flickering。

motion artefact

HDR sensor 原理介绍

LED flickering
HDR sensor 原理介绍

Temporal
HDR 在原理上就存在这些缺陷,所以要解决这个问题就需要使用其他的HDR*:Spatial HDR技术是现在车载领域的主流解决方案。

比较典型的是Sony sensor(imx390/490)采用的Subpixel技术与OV sensor(ovx1a)采用的split pixel技术,他们都属于SpatialHDR技术范畴,其基本原理是一致的。

1.大小pixel的分离结构

与普通CFA的不同,大小pixel技术的sensor在相邻位置有一大一小两个pixel,他们空间上非常接近,可以认为对空间采样相同。

HDR sensor 原理介绍

由于pixel的大小不同,物理上的sensitivity不同,FWC也不同,会产生与时域HDR一样的不同曝光效果,形成了对不同动态范围的覆盖。如下图可以看到LPD(Large Pixel Diode)与SPD(Small Pixel Diode)是如何扩展动态范围的。

HDR sensor 原理介绍

2.大小分离pixel的电路设计

典型的大小分离pixel的电路如下图所示

HDR sensor 原理介绍

SPD和LPD分别用黄色的二极管标出。CGC(conversion gain control)与TG(transfer gate)控制了photo diode 向FD充电,当TGs使能时,FD接收SPD来的电荷,RS会使能让FD的电荷转存出来。然后当TGL使能时,FD接收LPD来的电荷,RS会再一次使能让FD的电荷转存出来。RST负责在每一次转存后把FD电容清空。这样的电路结构就实现了LPD和SPD的分别读出。这个部分的电路时钟非常快,所以可以认为大小像素是同时曝光的。后面的读出电路也会把大小像素同时读出,由下图可见,T_lpd与T_spd是同时的。

HDR sensor 原理介绍

3.大小像素HDR与时域HDR在motion artefact上的比较

由下图可以看出基于大小像素的HDR与时域HDR在拍摄运动物体上的motion artefact比较。

左图是基于大小像素的图像,完全没有motion artefact,右图是时域HDR,可以看到明显的motion artefact。

HDR sensor 原理介绍

对于这种更挑战的场景,舞厅的旋转光球,左图是大小像素HDR,右图是时域HDR,可以看到时域HDR的图像把小的运动光点都混到了一起。

HDR sensor 原理介绍

4.大小像素与Dual conversion gain的结合

单独靠大小像素只能形成两个曝光的图像,再结合之前介绍过的DCG技术,在大小pixel分别配合HCG,LCG,就可以形成4曝光。

假设单曝光输出12bit,曝光比是16,那总共的动态范围可以达到24bit输出。

HDR sensor 原理介绍

5.两种场景的切换

如下图,横轴是场景的光亮度,纵轴是SNR,红色曲线是LPD像素的SNR曲线,蓝色曲线是LPD像素的SNR曲线。

HDR sensor 原理介绍
SPD的饱和点更高,而LPD的低光SNR更高。这两条曲线说明了大小像素这种设计可以很灵活的适配场景的变化,当场景非常亮的情况,就用大小像素融合输出,这样可以扩大动态范围。

当场景非常暗的情况,就完全切换到LPD像素,因为它的SNR更高。