Understanding CMOS Image Sensor(二)

david 2022-03-20 09:01:14 10962

转自知乎Camera技术专家 刘斯宁

链接:https://zhuanlan.zhihu.com/p/100777121

Understanding CMOS Image Sensor(一)

像素类型 (Pixel type)


2.1 被动像素 (Passive pixel)

最简单的Pixel结构只有一个PN结作为感光结构,以及一个与它相连的reset晶体管(RS)作为一个开关,如下图所示。

  1. 开始曝光前,像素的行选择地址会上电,于是RS使能,连通PN结与列选择器(column bus),同时列选择器会上电,使PN结上加高反向电压(如3.3 V),短暂延时后PN结内电子空穴对达到平衡,于是reset 操作完成,RS 信号失效,隔断PN结与column bus的连通。
  2. 开始曝光时,PN结内的硅在吸收光子激发出电子-空穴对。受PN结内电场的影响,电子会流向PN结的n+端,空穴会流向PN结的p-substrate。因此,曝光后的的PN结反向电压会降低。
  3. 曝光结束后,RS再次使能,读出电路会测量PN结内的电压,该电压与原反向电压之间的差值即正比于PN结接受到的光子数。
  4. 在读出感光信号后,会对PN结进行再次reset,准备下次曝光。

当sensor 控制逻辑需要读出阵列中的某个特定像素时,需要发出该像素的行地址和列地址,地址会被两个译码器(address decoder)解析并激活该像素所在的行选择线和列选择线,使该像素的PN结电容经过RS三级管连接到输出放大器上,如下图所示。

这种像素结构因为读出电路完全位于像素外面所以称为Passive Pixel,其优点是PN结可以独占像素面积,缺点是噪声较大,主要有2个原因:

  1. PN结的电容小于读出电路上的电容,所以对电路噪声很敏感。
  2. PN结的信号需要先读出才进行放大,因此读出电路的噪声会被一起放大。

当RS使能且列选择器通高电平时,在电路原理上相当于对PN结的电容进行充电,但是充电后得到的电压值却有一定的随机性,一方面每个PN结的实际电容大小会服从一定的概率分布,结与结之间存在固定的偏差,这会构成一种固定模式噪声(Fixed Pattern Noise, FPN);另一方面由于电路中存在暗电流噪声,即使是同一个结每次充电后得到的实际电压也不完全一样,这就构成了另一种模式的噪声,它与PN结的结构、温度和结电容大小都有关,称为kTC噪声。

2.2 像素kTC噪声

在研究PN结的噪声特性时可将其简化为下图所示的由电阻电容形成的低通滤波网络。

可以证明,由电子热运动引起的宽带热噪声经PN结滤波后反应在结电容上的输出噪声功率用kT/C描述,其中T为PN结温度,C为结电容,k为常系数,因此合称kTC噪声。

2.3 主动像素 (Active pixel)

目前主流的CMOS传感器都采用Active Pixel 结构设计。下图所示的Active Pixel 结构称为3T结构,每个像素包含一个感光PN结和3个晶体管,即一个复位管RST,一个行选择器RS,一个放大器SF。

3T结构的经典版图设计如下所示。

3T结构的工作方式是,

  1. 复位。使能RST给PN结加载反向电压,复位完成后撤销RST。
  2. 曝光。与Passive Pixel 原理相同。
  3. 读出。曝光完成后,RS会被激活,PN结中的信号被SF放大后读出。
  4. 循环。读出信号后,重新复位,曝光,读出,不断输出图像信号。

基于PN结的Active Pixel 流行与90年代中期,它解决了很多噪声问题。但是由PN结复位引入的kTC噪声却并没有得到解决。

2.4 PPD结构

为了解决复位kTC噪声,减小暗电流,在3T结构之后又出现了PPD结构(Pinned Photodiode Pixel),包括一个PN结感光区和4个晶体管,所以也称4T结构,它在3T结构的基础上增加了一个TX三极管起控制电荷转移的作用。

PPD结构的经典版图设计如下所示。

另有高人的见解也值很得学习。

相机的cmos工艺和芯片的cmos工艺相同吗??93 赞同 · 7 评论回答

PPD的出现是CMOS性能的巨大突破,它允许相关双采样(CDS)电路的引入,消除了复位引入的kTC噪声,运放器引入的1/f噪声和offset噪声。它的工作方式如下:

1. 曝光。

2. 复位。曝光结束时使能RST,将读出区(n+区)复位到高电平。

3. 读复位电平。读出n+区的电平,其中包含运放的offset噪声,1/f噪声以及复位引入的kTC噪声,将读出的信号存储在第一个电容中。

4. 电荷转移。使能TX,将电荷从感光区完全转移到n+区准备读出,这里的机制类似于CCD中的电荷转移。

5. 读信号电平。将n+区的电压信号读出到第二个电容。这里的信号包括:光电转换产生的信号,运放产生的offset,1/f噪声以及复位引入的kTC噪声。

6. 信号输出。将存储在两个电容中的信号相减(如采用CDS,即可消除Pixel中的主要噪声),得到的信号在经过模拟放大,然后经过ADC采样,即可进行数字化信号输出。

PPD像素结构有如下优点:

- 读出结构(n+区)的kTC噪声完全被CDS消除。

- 运放器的offset和1/f噪声,都会因CDS得到明显改善。

- 感光结构因复位引起的kTC噪声,由于PPD电荷的全转移,变的不再存在。

- 光敏感度,它直接取决于耗尽区的宽度,由于PPD的耗尽区一直延伸到近Si−SiO2界面,PPD的光感度更高。

- 由于p-n-p的双结结构,PPD的电容更高,能产生更高的动态范围。

- 由于Si−SiO2界面由一层p+覆盖,减小了暗电流。

2.5 PPD共享结构

PPD结构有4个晶体管,有的设计甚至有5个,这大大降低了像素的填充因子(即感光区占整个像素面积的比值),这会影响传感器的光电转换效率,进而影响传感器的噪声表现。为了解决这个问题又出现了PPD共享结构,像素的感光区和读出电路由TX晶体管隔开,相邻像素之间可以共用读出电路,如下图所示。

图中2x2像素共享一个读出电路,一共使用7个晶体管,平均一个像素1.75个晶体管。这样可以大大减少每个像素中读出电路占用的面积,提高填充因子。美中不足的是,由于这2x2个像素的结构不再一致,会导致固定模式噪声(FPN)的出现,需要在后续ISP处理中消除。

2.5 双相关采样(CDS)

双相关采样即Correlated Double Samping,其基本思想是进行两次采样,先采样一个参考信号用于评估背景噪声,延迟很短时间后再采集目标信号,从第二次采样中减去参考信号即得到去除了大部分背景噪声的目标信号,其原理模型如下图所示。

CDS成立的条件是在两次采样间背景噪声的幅度变化不大,因此它对去除固定噪声(FPN)和低频噪声效果比较理想,如1/f噪声,kTC噪声等。

下图以伪彩色的形式显示了CDS技术对像素低频噪声的过滤效果

pixel noise variation (a) 无CDS (b) 有CDS3 CMOS Sensor特性

CMOS sensor的本质是计量光电转换事件的线性传感器,在一定意义上可以说是光子计数器,sensor上每个像素的读值都反映了指定时间内该像素捕获光子的数量。一个理想的sensor 应该具备以下一些特性

  • 输出与输入恒成正比(无sensor噪声,只有信号本身的噪声)
  • 输入输出均可以无限大
  • 高灵敏度,小的输入激励大的输出
  • 高帧率
  • 高分辨率
  • 低功耗
  • 工艺简单
  • 低成本

理想 CMOS sensor 的响应特性下图所示

理想sensor的响应特性图中直线的斜率决定了单位输入能够激励的响应大小,这个斜率称为增益系数(gain)。sensor 会提供一组接口用于调节实际生效的增益值。

而实际的sensor只能是在一段有限的区间内保持线性响应,对于幅度过小或者过大的输入信号会不能如实地表示。

实际sensor的响应特性(简化模型)下图是用示波器实测像素线性度的测试数据。

下图是实验测量的输入输出曲线,横坐标是入射到sensor的光子数,纵坐标是sensor输出的数值(Digital Number, DN)。

以上关系用公式描述就是

S(N, t) = q(λ)·N·t

其中,S(N, t)是sensor的一个像素采集到的电子数, q(λ,)是sensor在波长λ处的光电转换效率,N是单位时间内入射到sensor表面的光子数(波长λ的单色光),t是曝光时间。

sensor 最终输出的像素值是使用ADC对S(N,t)进行采样和AD转换得到的量化值,该值会有PV(Pixel Value),ADU(Analog-Digital Unit),DN(Digital Number),Output Code等多种表述方式,并且

DN=g*S(N, t)

其中符号g代表增益系数gain,意义是多少个光子能够激励出1个比特的DN值。

下图描述了一个CMOS像素发生光电转换和收集光生电子的过程。

以上过程会涉及几个关键性的参数,下面简要给出描述。

3.1 量子效率 (Quantum Efficiency)

量子效率是描述光电器件光电转换能力的一个重要参数,它是在某一特定波长下单位时间内产生的平均光电子数与入射光子数之比。

由于sensor存在三种像素,所以量子效率一般针对三种像素分别给出。下图是一个实际sensor的量子效率规格示例。

3.2 势阱容量 (Saturation Capacity)

势阱容量又称Full Well Capacity,指一个像素的势阱最多能够容纳多少个光生电子,消费类的sensor一般以2000~4000较为常见,此值越大则sensor的动态性能越好。

下图给出一个包含势阱容量规格的例子。

图中可以看出,不同厂家的像素工艺可以相差很大,较先进的工艺可以在34μm2的面积上容纳超过3万个电子,平均每μm2可以容纳近1000个电子,而普通的工艺每μm2只能容纳不到400个电子。

下图是两款SONY sensor进行比较。

下图是一些单反相机sensor的饱和阱容比较。

### 3.3 噪声 (Noise)

“噪声”的广义定义是:在处理过程中设备自行产生的信号,这些信号与输入信号无关。

由于电子的无规则热运动产生的噪声在所有电子设备中普遍存在,是不可避免的,因此被重点研究,并赋予了很多名字,如本底噪声、固有噪声、背景噪声等,英文中常见noise floor, background noise等提法。如下图所示,器件的温度越高,电子的热运动越剧烈,产生的噪声也就越大。

真实世界中的所有信号都是叠加了噪声的,图像信号也不例外,如下图所示,当有用信号的幅度小于背景噪声时,这个信号就淹没在噪声中而难以分辨,只有当有用信号的幅度大于噪声时这个信号才是可分辨的。

假设照明强度恒定、均匀,相机拍摄图像中的噪声是测量信号中空间和时间振动的总和。下图以传递函数的形式总结了CMOS sensor 光、电转换模型以及几种主要噪声的数学模型。

下图更加细致地描述了CMOS sensor 成像过程中各种噪声的来源和作用位置。

下图是对噪声图像的数值分析。

在了解各种噪声类型之前首先回顾一下概率与统计课程中学习过的泊松分布公式,后面将多次遇到这个分布。

泊松分布是最重要的离散分布之一,它适合描述单位时间内随机事件发生的次数。举例来说,假设某高速公路在某时段的车流量是每小时1380辆,平均每分钟23辆,可是如果进一步以分钟为单位进行统计,我们就会发现某一分钟只通过了15辆,而另一分钟则通过了30辆,这个概率分布就需要用泊松分布来描述。同理,我们可以把这个例子中的车流换成芯片内流过PN结的电子流,或者换成通过镜头入射到像素的光子流,这两种情况在统计意义上是完全一样的,都需要用泊松分布来描述。

下面这篇文章较详细地解释了泊松分布的推导过程和它的现实意义。

泊松分布的现实意义是什么,为什么现实生活多数服从于泊松分布?9406 关注 · 79 回答问题

sensor 噪声中含有几部分分量:

  • 暗散粒噪声(σD): 硅片中电子的热运动会导致一些价电子随机激发至导带中形成暗电流(dark current),所以即使完全没有光子入射,sensor也会存在一定的信号输出。在曝光过程中,暗电流的随机变化即形成暗散粒噪声。暗电流变化的主要原因是电子穿过PN结时会遇到PN结的电势屏障(barrier),电子穿越屏障需要经历动能-势能-动能的转换过程,所以需要耗费一些时间。暗散粒噪声在统计上服从泊松分布,与光信号的高低水平无关,但与传感器的温度有关,一般的规律是温度每升高8°C暗电流翻一倍。所以在设计电路时必须注意把容易发热的电子元件尽可能布置在远离sensor的地方。

暗电流随温度的变化规律- 读出噪声 (σR): 该噪声是在产生电子信号时生成的。Sensor中使用AD转换器(ADC)将模拟放大器输出的模拟电压采样为数字电压。由于数字信号的精度总是有限的,通常为10比特至14比特,幅值位于两个相邻数字之间的模拟信号会四舍五入到最接近的数值,所以这个过程会引入量化噪声,这是读出噪声的重要组成部分。该噪声由传感器的设计决定,意义是至少需要多少个电子才能驱动读出电路的ADC变化一个比特。它与信号高低水平和传感器温度无关。

- 光子散粒噪声(σS): Shot noise, 该噪声是与落于传感器像素上光子相关的统计噪声。在微观尺度下,光子流到达传感器的行为在时间和空间上都是不均匀的,就像统计高速公路上的车流,有时车流比较密集,过一会又变得稀疏。有时左边的车道密集,过一会右边的车道密集,整体上其统计规律符合泊松分布。光子散粒噪声是与被测信号的高低水平有关的,与传感器温度无关。

光散粒噪声 (shot noise)- 固定模式噪声 (σF): Fixed-pattern noise(FPN), 该噪声是由像素的空间不均匀性引起的,CMOS sensor 每个像素内都配置一个电荷电压放大器,每行、每列都有一些晶体管用于控制像素的复位和读出,这些器件的工作参数相对理论值的漂移就构成一种固定模式噪声。另外,坏像素、瑕疵像素也可以视为一种固定模式噪声。FPN效果大致上可以用下面的示意图模拟。

下图是一个Pixel FPN的实际例子。

在所有像素中,总会有一些像素相对平均值漂移较大,这些像素称为离群像素(outliers),如下图所示。离群像素的数量能够反映sensor品质的好坏。

下面两图所示的噪声在sensor中比较常见,并且有专用的名字叫做条带噪声(banding noise),它的一种来源与像素参数和ADC参数的飘移有关,此时它是一种FPN噪声,但有时它是由外部电压不稳定造成的,此时它是一种随机噪声(Troubleshooting Image Quality Problems)。事实上,只有sensor厂家才有条件研究清楚这两种噪声来源的具体比例结构。

固定模式噪声是固定不变的,与信号高低水平和传感器温度无关,因此可以通过标定的方法减除,在计算噪声时可忽略该项。

  • 复位噪声 (σr): 卷帘曝光方式需要在先对势阱复位,将势阱中自由积累的电荷全部释放,为后续的读出准备。但是由于暗电流的存在,每次复位后都会残留一些大小随机的噪声信号,即复位噪声,其大小与像素结构、芯片温度、PN结电容有关,因此也称为kTC噪声。

像素的复位是需要一定时间的。定量的研究表明,即使是采用较大的复位电流,一般也需要1ms以上的时间才能将电荷释放干净,如下图所示。

实际的复位控制信号通常会短于1ms,因此下一帧图像多多少少会残存一些上一帧图像的影子,这个残影叫做image lag,也是噪声的一种形式。下图显示了有残影和无残影的图像对比。

- 1/f噪声 (σf): 1/f 噪声是一种低频噪声,在有些文献中也称flicker noise(闪烁噪声) 或pink noise(粉红噪声),它广泛存在于半导体器件中。在低频的时候1/f噪声一般显著高于电散粒噪声。

一种理论认为,半导体晶格中都会存在一些缺陷,这些缺陷能够捕获一些自由电子并将其束缚一段时间,这可以解释1/f噪声的一种来源。广义的1/f噪声是功率谱密度符合 1/(f^β)公式的噪声形式,其中指数β 的取值范围在0.5~2.0 之间。研究发现,CMOS sensor 中的1/f 噪声功率谱密度与频率成反比,下图定性地表示了1/f 噪声的频谱特征以及与热噪声的关系。

从上图中可以看到,“pink”与“white”这两种"颜色"的主要区别在于功率谱的分布。白噪声的功率在所有频段上是均匀分布的,而粉红噪声的功率主要集中在低频。

人们不仅在电子装置中观测到1/f噪声,在音乐、生物学乃至经济学中也观察到这种噪声1。关于1/f噪声的来源仍存在很大争议,几乎每届学术会议上都有人想来个“正本清源”,可惜N多年也没争出个一二三四来。每个试图解决问题的人都能提出某个模型,但是这个模型只能在一定条件下或者是一定范围内成立,不具有一般性。最后相关会议主办方干脆出个论文集,也不加评论,直接把所有吵架论文编成一本将近800页的大书。

- 光响应非均匀性 (σp): 英文为PRNU,Photo Response Non-Uniformity。Bayer格式的sensor 通常存在四种像素(R,Gr,Gb,B),这四种像素的光电转换特性(即增益特性)不可能是完全一样的,不同种像素间存在种间差异,同种像素之间也存在个体差异,如下图所示。

PRNU通常占总噪声的1~2%左右,很多时候是可以忽略的。从下图中可以看出当信号较大时光信号本身的散粒噪声远大于像素的非线性响应噪声。

某些科研级的sensor 的线性度指标已经达到了惊人的99.9%。

- 串扰 : 英文为Crosstalk,在通信领域中指两条信号线之间由于屏蔽不良而发生了的信号耦合,一条线路上的信号通过线缆间存在的互感和互容馈送到了附近的信号线上,在模拟通信时代可能导致听到别人的通话。在sensor领域,串扰指的是入射到一个像素A的光信号没有在这个像素里被捕获,反而被其周围的像素B捕获,导致B产生了不该有的信号。

在下图例子中,粉色表示的是不透光的像素,不应该有任何输出,黄色表示正常像素,应该有输出。实际上,光子是可以在硅片中穿透一定的距离的,从而有机会进入到粉色像素的感光区,从而变成粉色像素的信号,这就是CMOS sensor的串扰机制。

下图显示了串扰的原理,黄色像素周围的多个像素都有可能捕获一些本属于黄色的光子,这也是一种噪声来源。

从下图可以看出,波长越长,串扰越严重,某些像素位置串扰能量可以达到5%。

三星公司研发了ISOCELL技术用于抑制串扰,该技术使用metal grid制造电势屏障阻止电子进入相邻的像素,但是会引入一些新的问题,所以后来又发展出了ISOCELL Plus技术,该技术是在ISOCELL的基础上改进了材料,避免了metal grid 引起的不良反应。

索尼的HAD CCD技术给像素设计了一个特别的盖子,可以防止像素内的光电子逃逸,同时也防止像素外的自由电子进入像素内部。

噪声模型

下图测量了sensor中4种像素的光响应特性,从图种可以看出4种噪声的表现机理。PRNU体现的是红、绿、蓝三种像素的增益差异。对于任一种像素,光信号越强像素值抖动越大,这体现了光信号本身的散粒噪声。光信号为零时,输出幅度最小的像素体现了半导体的暗散粒噪声,而 红、绿、蓝三种像素之间的差异体现了FPN噪声。

尽管像素噪声有多种来源,但每种噪声的贡献程度并不是同等重要的。为了简化计算,实际上经常采用简化的噪声模型,只考虑光散粒噪声、暗散粒噪声、读出噪声、以及ADC器件的量化噪声,如下图所示。

甚至可以进一步将量化噪声吸收到读出噪声中,于是每个像素的总有效噪声是下列所有噪声的总和:

由于暗散粒噪声和sensor工作温度有关,因此降低sensor温度有助于减少图像噪声。在科学、武器等应用中常会使用液氮给sensor制冷以提高图像信噪比。很多装备了CCD/CMOS camera 的导弹会带一个盛液氮的杜瓦瓶,导弹开机后杜瓦瓶向sensor 吹冷气使sensor 保持在零下几十度低温工作。

下图所示的是某科学级sCMOS sensor,通过气冷或者水冷的方式可以工作在-40~-30度低温下,像素的噪声得到极大的改善。

Hot pixels 对比暗电流噪声对比目前的CMOS工艺水平已经非常先进,对于科学水平的sensor,读出噪声的典型值通常小于10 e-,在极限条件下甚至已经可以做到1e-。下图给出了一些常见单反sensor和仪器sensor的读出噪声水平。

本专栏的另一篇文章专题讨论了降噪的算法,可以结合阅读。

刘斯宁:Understanding ISP Pipeline - Noise Reduction69 赞同 · 10 评论文章

3.4 信噪比 (SNR)

信噪比是一个电子设备或者电子系统中信号与噪声的比例,如下图所示。这里面的信号指的是来自设备外部需要通过这台设备进行处理的电子信号,而噪声是指该设备自行产生的无规则信号,并且该种信号并不随外部输入信号的变化而变化。

在图像处理领域,信噪比是评价图像质量的主要依据。对于一个小信号总是可以通过增益的方式把它放大到适合观察处理的水平,但是信号中的噪声也必然会得到同样程度的放大,如果该信号的信噪比很低,单纯的放大操作并不增加任何有用的信息,无助于改善图像质量。

下面分析sensor图像的信噪比。如前所述,设S为传感器上每个像素上入射光子通量为N光子/秒情况下产生的“信号”电子的数量,其中量子效率为QE,曝光时间为t秒,那么

通过S,可以将光子散粒噪声表示为:

信噪比(SNR)可以由下式进行估算:

前面已经提到

举个具体的例子。如果我们假设有足够高的光子通量和量子效率,可以让一个像素在5秒曝光时间内积累的信号S高达10,000 e-,那么可以对光子散粒噪声进行估算,约为10,000的开平方值,即100 e-。读出噪声为10 e-(与曝光时间无关)。当曝光时间为5秒,传感器温度为25、0和-25 °C时,有效噪声为:

下图给出了sensor信号(光电子数S)与噪声(σeff)之间的关系和变化规律。

从这张图上我们可以看到,传感器在光子数达到一个阈值后才开始有信号的(图上是在10与100个光子之间),也就是说如果传感器接受的光子数少于某个阈值,就不会有信号输出。这个阈值一般认为是读出噪声。在像素达到饱和前,光电子数随着入射光子数的增加而线性增加,而噪声随入射光子数增加按根号规律增加,噪声增加的速率低于信号增加的速率,因此总的信噪比不断增长。

当S很小时,SNR主要由σR决定,即sensor暗电流和读出噪声是主要来源。当S很大时,SNR主要由σS决定,即光信号本身的统计涨落是噪声的主要来源。如下图所示。

如前所述,光信号的统计噪声符合泊松分布,即 σS=sqrt(S),考虑到光数与光电子存在正比关系,因此sensor的最大信噪比出现在势阱饱和的条件下,即

SNRmax = √N= 20log(√N),其中N代表饱和阱容。

考虑前面提到的SONY sensor 的例子(截图如下),将饱和阱容(32316)带入上式可得

SNR=20log(√32316)=20log(179.766)=45.1

一般认为,SNR=10dB 是可接受(acceptable)的图像质量标准,该值意味着信号幅度是噪声的3.16倍。而SNR=40dB 是优秀(excellent)的图像质量标准,该值意味着信号幅度是噪声的100倍,因此至少需要10000e-饱和阱容。介于中间的是SNR=30dB,该值要求像素提供1000e-以上的饱和阱容,这刚好是很多手机sensor的指标范围。

下图是一些单反相机的典型SNR对比。

下图是Canon 1D3 单反相机在不同ISO下的信噪比曲线,横坐标是曝光量,纵坐标是SNR,都是以"stop"为单位,即以2为底的log-log坐标。

在评估图像质量时,常用以下公式计算噪声和信噪比

回顾前文中的公式 DN=g*S(N, t) 可知,通过图像DN值和sensor增益系数g可以反推光子数S,而通过DN值和光子数S也可以反推sensor的增益系数g。

一个非常有用的问题是,图像上某个小区域的像素噪声与该区域的像素均值符合怎样的函数关系呢?我们可以进行这样的分析:

*令s表示像素均值,S表示光信号绝对值,则s=S*g;

*令n表示像素噪声均值,N表示噪声绝对值,则n=N*g;

*假设该小区域是均匀的,理想上像素DN值应该完全一样,因此实际得到的起伏就是噪声引起的,以DN值计量的噪声单位是 n=sqrt(MSE),或者MSE=n^2;

*光信号本身的噪声符合泊松分布 N=sqrt(S),所以有 n/g = sqrt(s/g),或n=sqrt(s*g);

所以能够得到的结论是:

图像中任一像素邻域内,图像噪声(DN值)与像素均值的平方根成正比,比例系数是sqrt(g)。

3.5 动态范围 (Dynamic Range)

一个信号系统的动态范围被定义成最大不失真电平和噪声电平的比值,在实际应用中经常用以10为底的对数来表示,单位是分贝。对于胶片和感光元件来说,动态范围表示图像中所包含的从“最暗”至“最亮”的取值范围。根据ISO15739的定义,“最亮”指的是能够使输出编码值达到特定“饱和值”的亮度;而“最暗”指的是图像信噪比下降至1.0时的亮度。

sensor 动态范围越大,所能表现的层次越丰富,所包含的色彩空间也越广。下图是用来测量sensor动态范围性能的常用方法。

前面已经提到,sensor是由数以百万个甚至更多像素组成的,这些像素在曝光过程中吸收光子转化成电荷。一旦这些像素容量达到饱和,多余的电荷便会溢出导致输出信号不再增加,此时像素的值不能反映光信号的真实强度,如下图所示。

因此sensor能够输出的最大不失真信号就等于sensor像素的势阱容量,而sensor输出的最小值则取决于像素的背景噪声水平,一般起主导作用的是读出噪声。

根据动态范围的定义,sensor动态范围的分贝表示用以下公式计算

当读出噪声为一个电子时,sensor的动态范围即达到理论极限值

根据上面的公式可以简单计算出动态范围与FullWellCapacity之间的关系。

显然,目前较好的工艺水平(SONY)可以做到每个像素容纳10000~30000个电子,可以提供80~90dB的极限动态范围,但是更多就不合理也不经济了,因为更大的势阱容量需要更大的像素面积,而像素大到一定程度之后就会遇到成品率瓶颈,下面有专题说明,因此超过80dB的动态范围往往需要依赖其它技术实现。

下图列举了一些典型单反相机sensor的动态范围指标,纵坐标可以理解为AD转换器的位数。例如12位ADC能够表示的动态范围是2^12=4096,而14位ADC能够表示2^14=16384,以此类推。

P.S. ADC位数的选择必须是和sensor的动态范围相适配的,ADC位数高于sensor是没有任何意义的性能浪费,低于sensor则不能完全发挥出sensor的性能优势,也是一种性能浪费。从图中可以看到,单反相机的主流是采用14位ADC,更高端的则采用16位ADC。

白天的天空可以看作是一个非常明亮的光源,如果sensor动态范围不足,拍摄天空时就很容易出现过曝,蓝天变浅,白云失去层次感,甚至完全变白。

下图列举了一些典型场景的动态范围。

在日常生活中会经常遇到动态范围>100dB的场景,一个sensor如果具备120dB的动态范围即可满足绝大部分场景的拍摄需求。普通人眼可轻易应对80~100dB的场景,然而普通的CMOS sensor 却只能提供50~70dB的动态范围,更高的动态范围一般需要通过多帧合成的办法实现。

在摄影领域经常使用“f-stop”术语描述镜头的通光量,这里stop指曝光档位,镜头光圈旋转到一个f-stop档位的时候会自动锁定,伴随一个轻微的“咔嚓”声。档位的设定依据是非常明确的,即相邻两档的通光量是2倍关系,因此镜头的通光量是按照2的指数倍规律变化的。

在摄影领域经常使用“light stop”术语描述场景的动态范围。举例来说,如果室内最暗处照度是1lux,而室外最亮处照度是3万lux,则场景动态范围是30000(90dB),需要15个light stop。

当一幅画面同中时存在亮部和暗部的时候,往往就是考验sensor 动态范围性能的时候了。动态范围小的sensor 无法同时兼顾亮部和暗部,通常只能牺牲一个保证另一个,或者两者都做出一定的牺牲(下图左)。如果希望暗部和两部能够同时得到较好的还原,则只能使用宽动态性能更好的sensor(下图右)。

ND滤镜

使用高动态范围的sensor是拍摄高动态场景的主要手段。另一方面,人们也可以使用光学滤镜来调节输入信号的能量分布,从而压缩输入信号的动态范围。在拍摄天际线场景时,由于天空的亮度高,且分界明显,所以可以使用渐变式中性滤镜(Neutral Density Gradient Filter)抑制天空区域的亮度,改善成像效果。

### 3.6 灵敏度 (Sensitivity)

CMOS sensor 对入射光功率的响应能力用灵敏度参数衡量,常用的定义是在1μm2单位像素面积上,标准曝光条件下(1Lux照度,F5.6光圈),在1s时间内积累的光子数能激励出多少mV的输出电压。

在量子效率一定的情况下,sensor 的灵敏度主要取决于电荷/电压转换系数(Charge/Voltage Factor, CVF)。在下图的例子中,CVF =220uV/e,这意味着阱容2000e的像素能够激励出最大440mV的电压信号。

在曝光、增益相同的条件下,灵敏度高的sensor信噪比更高,这意味着至少在两个方面可以获得比较优势,

  • 在图像噪声水平接近的情况下,灵敏度高的sensor图像亮度更高、细节更丰富
  • 在图像整体亮度接近的情况下,灵敏度高的sensor噪声水平更低,图像画质更细腻

EMVA 1288 定义了评价camera 灵敏度的标准,即多少个光子可以引起camera像素值变化1,即一个DN。根据量子力学的公式,

1个波长为540 nm的绿光光子携带的能量是

Camera 技术手册中会给出像素灵敏度规格,

根据此规格即可计算像素值变化1需要多少个光子。下面的链接给出了一个具体的例子。

https://www.lumenera.com/blog/understanding-camera-sensitivity-a-look-at-the-numberswww.lumenera.com/blog/understanding-camera-sensitivity-a-look-at-the-numbers

下图给出了普通灵敏度和高灵敏度sensor在噪声、亮度方面的效果对比。

Panasonic high sensitivity sensors

3.7 填充系数 (Fill factor)

一个像素不管实际面积多少,用于控制和读出的三极管和电路连线所占的面积是必须首先保证的,余下的面积才能用于制造感光PN结。假设一个像素小到只能勉强容纳几个必须的三极管,则填充系数降为零,这个像素就失去了意义。反之,像素面积越大,三极管和电路所占面积的比例就越小,像素的填充系数就越高,像素的成像质量也会越好。

下图是一个像素版图的例子,这是一个采用PPD结构设计的像素,尽管面积很大,但实际也只取得了60%的填充系数。

为了大幅度地提高填充系数,人们不得不费心费力地在每个像素上方制造一个微透镜,将较大范围内的入射光会聚到较小的感光面上,这样可以将光能利用率提高到90%以上,也就是通过微透镜提高了等效填充系数,如下图所示。

3.8 像素尺寸(pixel pitch)

最小的像素通常是出现在手机sensor上,典型尺寸1.1um,这差不多已经到了实用的极限了,安防和机器视觉sensor常用2.2um~4.2um大小的像素,而单反和广播级的sensor则倾向于用更大尺寸的像素。

关于像素尺寸有两个非常经典的问题,假设你有两个桶,一大一小,那么

1. 如果外边雨下的特别大,哪个桶先盛满水?OK,很显然是小的桶先满。

  1. 如果外边的雨是一滴一滴地偶尔掉下来,哪个桶更容易接到水?OK,很显然是大的那个。

其实像素也是一样的道理,大的像素通常可以容纳更多的电子,因此可以表示更大的信号变化范围,这个指标称为sensor的动态范围,是一个特别重要的参数。在极低照度下,大的像素更容易捕获到少量的光子,也就是低照度性能会更好。所以,如果不考虑面积和成本,在相同的工艺下,一般的原则是像素面积越大成像质量就越好。

下图对比了大小像素的实际噪声表现,可以看到在曝光时间很短的条件下,大像素的噪声水平会明显优于小像素。

一个sensor 的尺寸大小主要取决于感光阵列和处理电路所占的面积,而感光阵列的面积等于像素尺寸和像素数量的乘积。sensor 的像素数量有专用的术语叫做分辨率(resolution),可以用总数量描述,如2MP,3MP等(MP=MegaPixel,百万像素),或者写成宽乘以高的形式,如1920x1080,2048x1536 等。sensor 的大小也有专用的术语叫做光学格式(optical format),用sensor 封装后的对角线长度衡量,注意并不是sensor 光敏阵列的对角线长度。光学格式在技术发展的过程中已经完全标准化,形成了一系列固定的尺寸,方便与任何厂家生产的标准规格镜头进行适配。

在进行像素密度计算时,设计人员需要准确地知道所选sensor 光敏阵列的尺寸,这个数据可以根据sensor 分辨率和像素尺寸计算得到,也可以快速地查表得到。下表给出了一些常见光学格式的光敏阵列尺寸。

注意用sensor 封装后的对角线长度一定大于sensor 光敏阵列的对角线长度。比如标称的1/2" 格式,指的是sensor 封装后对角线长12.7mm,而实际的光敏阵列则为6.4mm*4.8mm,对角线长8mm。这个定义方式源于最初的电视技术采用的阴极射线摄像管,如下图所示。考虑到元件替换是最为普遍的需求,普通用户只需要关注这种摄像管的外径尺寸,而并不关心其内部成像面的具体尺寸。

3.9 成品率(yield)

单纯从信噪比的角度考虑,像素的尺寸显然是越大越好。但是为什么手机sensor都是越做越小呢?这主要有两方面的原因,最终都能归结到成本问题。一个很容易理解的原因是,在芯片总面积一定的情况下,单个像素面积越大,芯片的总像素数就会越少,即sensor的分辨率就越低,这与人类追求高像素、高清晰度的目标是不符的。因此手机sensor的发展思路一直是依靠技术进步不断提高像素灵敏度同时缩减像素面积,在保证成像效果基本不损失的前提下,通过提高成品率来降低单个sensor的成本,扩大总收益。

那么是否可以把芯片总面积扩大,既用大像素,也提供高像素数呢?在一定程度上是可以的,事实上单反、广播、武器、科研级的sensor就是这样做的,代价就是一片wafer(硅片)只能制造几十个sensor,单个sensor 的成本是相当感人的。

当然了,如果是用在天文望远镜这种不计成本的场合上,也有人会用一整片wafer制造一个超大的sensor,比如下面这货,是佳能在一个12英寸(直径300mm)wafer 上制造的单个CMOS sensor,面积 202×205mm2, 1600万像素, 帧率100fps,采用0.25μm工艺。

使用这个巨型sensor可以在10~20ms内拍摄一幅高质量的天文图像,而普通的单反拍摄同样质量的图像通常需要使用慢快门拍摄几分钟甚至更久的时间。

但是对于手机sensor这种消费市场,拍摄夜景并不是频繁和主要的需求,相反成本是最重要的考虑,所以sensor厂家会希望一片wafer能够产出2000个以上sensor。

一片wafer能制造出多少个sensor是在设计期就确定了的,但是实际有多少sensor 能正常工作则还有一些运气成分,因为每个wafer都或多或少有些瑕疵(defect),光刻过程也可能会引入瑕疵(如下图),导致电路无法工作。

一个sensor 如果刚好位于瑕疵位置就会变成废品,只有一切顺利没出任何意外才能变成成品。所以wafer的成品率是决定sensor成本的关键因素。对于上面提到的天文望远镜sensor,只要wafer上有一处关键瑕疵位于sensor 面积上,这个wafer的成品率就等于零。如果这片wafer制造的是2000个手机sensor,则损失一个sensor 问题也不很严重。下图说明了成品率和sensor尺寸的关系。

显然sensor面积越大遇到瑕疵的概率也就越大,从数学上看,sensor遇到瑕疵(变成废品)概率与像素尺寸(pixel pitch)是平方关系而不是线性关系。假设wafer上的瑕疵是均匀分布的,当sensor面积大到一定程度的时候,就会出现无论如何也无法避开瑕疵的尴尬境地。

3.10 前照式工艺(FSI)

传统CMOS sensor 工艺又称为FSI(Front Side Illumination)工艺,与传统的半导体工艺一样,它首先装夹固定好一片wafer(硅片),从wafer的一侧开始制造光敏PN结以及控制和读出电荷所需的晶体管,然后制造连接晶体管所需的金属线路(铝或铜),接下来制造Bayer滤光膜和微透镜。在整个制造过程中wafer只装夹固定一次,直到制造完成,最后的wafer大概就是下图所示的样子。

接下来就是测试、切割、封装等步骤。wafer上的sensor 晶片叫做die,需要先用自动化测试机台进行探针测试(Probe),未能通过探针测试的die会被系统记住位置(如下图),切下后将直接丢弃,避免进入封装环节,因为封装成本可能会占sensor总成本的1/3。

封装就是将晶片固定在塑料或金属外壳内部,形成最终产品的过程,与其它半导体芯片的封装过程基本是一样的。

如果一切顺利,封装好的sensor 大概就是下图所示的这个样子。

或者像这个样子。

根据sensor尺寸的不同,一个12英寸(直径300mm)的wafer粗略可以切出100~2000个sensor,但是能否收回制造成本还取决于成品率(yield),正常情况下厂家会期望成品率大于90%,如果很不幸有一半sensor 是废品则厂家大概率会血本无归。

强烈推荐一个芯片制造的视频,和制造sensor过程是差不多的。

为什么 CPU 这么贵?5987 赞同 · 571 评论回答

言归正传,在FSI工艺下,光线需要穿越多层电路结构才能抵达硅感光区,如下图所示。

传统FSI工艺的一个主要不足之处在于光敏PN结与滤光膜和微透镜之间需要制造若干层电路结构,由于电路高度问题会限制PN结可收集光线的面积和角度,同时光线在前进过程中会与电路结构发生吸收、散射,所以会增加光能的损耗,如下图所示。

下图是FSI像素在电子显微镜下的照片。

3.11 主光线角(CRA)

主光线角(Chief Ray Angle, CRA)是衡量sensor 收集入射光能量的一个主要参考指标。尤其是对于经典的FSI工艺,由于多个金属布线层的存在导致CRA 不太容易提高。如下图所示,使用铜线可以在一定程度上改善CRA 但也会提高sensor 成本。


CRA 经常是限制sensor 性能的一个重要因素,而下面将要介绍的BSI 工艺则可以显著改善CRA,使之不再成为一个主要问题。

3.12 背照式工艺 (BSI)

随着半导体工艺的进步,人们发现其实可以将wafer打磨得非常薄,让光线穿透wafer,从背面入射到感光PN结,这个想法无论在技术上还是成本上都已经变得可行,于是就产生了背照式工艺(Back Side Illumination, BSI)。BSI工艺的主要特点(也是难点)是生产过程中需要两次固定装夹,一次在wafer背面制造滤光膜和微透镜,一次在wafer正面制造感光PN结和电路结构。两次装夹定位的重复精度要求极高,才能保证光线能够通过背面的微透镜精准聚焦到PN结上。

下图是BSI工艺的典型流程,中间一个非常关键的步骤就是"flip wafer"。

下图是BSI像素的微观结构照片。

下图是FSI工艺和BSI工艺的原理对比。

下图是OmniVision BSI工艺流程和简介。

OmniVision BSI (Back Side Illuminated) 工艺下图是Sony BSI工艺的简介。

SonyFSI 与 BSI 工艺效果对比 @ ISO6400

左侧:Sony 20mp RX100 CMOS Sensor

右侧:Sony 20mp RX100 II BSI CMOS Sensor

下图是另一个FSI工艺与BSI工艺效果对比的例子。

3.13 其它进展

Sony 于2007年推出第一代Exmor系列CMOS 图像传感器。与传统CIS技术相比,Exmor 的主要特点是为每列像素配置了专用ADC和额外的CDS。由于ADC单元与像素的物理距离更近,并且由于大规模并行化可以降低单个器件的工作频率,所以极大地改善了sensor的噪声特性。而新增的CDS又进一步抑制数字噪声。

随着制造技术的进一步演进,在背照式工艺的基础上又发展出了堆栈式(Stacked)工艺。顾名思义,堆栈式工艺把两片或者更多片硅片上下堆叠在一起,最上层硅片全部用于制造像素的感光区,而sensor 控制所需的模拟、数字逻辑全部移到下层硅片,所以感光区占sensor靶面尺寸的比例可以接近100%,终于达到了sensor 效率的巅峰。

Sony Exmor RS BSI 堆栈式工艺实际上,CMOS sensor 也可以设计称支持global shutter曝光方式。与CCD 类似,global shutter 的实现原理是每个曝光像素都伴随一个存储电容,感光阵列上所有像素同时曝光,然后光电子立即被转移到存储电容上并锁定,等待读出电路读出。下图是一种较新的global shutter 像素设计,该设计支持两种不同的增益系数,因此支持HDR功能。

下图展示了SONY 最新BSI stacked 工艺制造的global shutter CMOS sensor 像素原理。

该sensor使用上下两层硅片,通过一定的机制绑定成3D结构。下图是SONY发布的实物照片。

3.14 Sensor for AI

另外,近些年的发展趋势是在sensor 上集成内存和AI 运算单元,使sensor 本身就能够完成一些高级图像处理算法,实现sensor 的智能化。

智能化的sensor可以用于制造端侧AI Camera,通过计算前移减轻云端的计算压力,减轻网络传输的带宽压力,减少系统延迟,有利于智能系统的大规模部署。这个市场称为端侧AI市场或Edge AI。

3.15 ToF sensor

ToF 即 Time-of-flight,ToF sensor 主动向视场前方打出一组激光,然后追踪反射光被sensor捕获的时间,通过时间差计算前方障碍物的距离,从而形成深度图(depth image)。深度图的每个像素值代表目标距离camera的距离。为了形象地呈现深度信息,人们一般用红色代表近的距离,蓝色代表远的距离。

ToF 相机原理可见光sensor图像与To Fsensor的深度图可以用一定的算法融合成3D图像,实现3D建模功能。

3.16 Sensor fusion

车载是仅次于手机、安防的第三大sensor应用市场。车载应用的主要挑战是包括强光、高动态、雨雪雾等环境因素会对 sensor 成像造成严重干扰,目前单靠CMOS sensor本身的性能提升还不能很好地解决这些问题,所以人们在探索将可见光sensor、毫米波雷达、激光雷达等成像技术结合在一起,形成更为可靠的车载解决方案,保证在各种气象条件下都能稳定地检测出画面中的目标。索尼将此技术称为sensor fusion。

3.17 Foveon sensor

研究发现,不同波长的光在硅材料中能够穿透的深度是不同的,下表是关于穿深的统计。

Foveon 公司开发了一款可以在一个像素上捕捉全部色彩的图像传感器,型号为Foveon X3。与传统的Bayer阵列原理不同,Foveon 利用了蓝光穿透距离小,红光穿透距离大的原理,采用三层感光元件堆叠布局,每层记录一个颜色通道。

3.14 宽动态(WDR)

宽动态即Wide Dynamic Range,与之等价的一个术语是高动态即High Dynamic Range (HDR)。单从语法的角度看,WDR比HDR在语法上更严谨一些,因为形容一个范围可以说“宽窄”但很少说"高矮",除此之外其实并无技术层面的区别。

从另一个角度看,当用水平的图表比较动态范围时,用WDR术语是最恰当的,如下图。

然而,如果需要使用下面的图表对比动态范围,则用HDR术语似乎也显得合适了。

现在一个流行的趋势似乎是用WDR描述与视频相关的应用,用HDR描述与静态图片相关的应用,其实在笔者看来这个界定也并无理论依据,只是一种约定俗成的习惯。

在前面第3.5节中已提到,目前较好的工艺水平(SONY)可以让sensor 提供80~90dB的极限动态范围,但是更多就不合理也不经济了,因此超过80dB的动态范围一般需要通过其它技术实现。目前大致有九种技术路线可以实现WDR技术,即

  • Staggered 长短曝光帧融合,非同时曝光,存在运动伪影问题,短帧存在flicker问题
  • Interleaved 行交替曝光,将像素以两行为单位分组,长、短交替曝光,存在分辨率损失
  • Chopped 斩波曝光,主要解决flicker问题
  • Lin-Log 函数响应,依赖特别的像素设计,LDR区间为线性响应,HDR区间变为log规律响应,缺点是FPN较大
  • Dual-diode pixel,两种不同敏感度的像素呈棋盘格排列,长、短帧同时曝光,存在分辨率损失和运动伪影
  • LOFIC 像素,用大电容收集像素溢出的电荷,原理与Split-diode pixel 有些类似
  • Complementary carrier pixel,在LOF基础上使用电子-空穴两种互补载流子,显著提高阱容
  • DCG 像素 (Dual Conversion Gain),每个像素可独立控制增益,等效于实现两种敏感度像素
  • Split-diode pixel, 将每个像素的光敏区切成两块,分别负责短曝光和长曝光,没有分辨率损失和运动伪影

3.14.1 Staggered

第一种模式应用最为普遍,sensor输出两帧图像用于宽动态融合,一帧短曝光图像重点采集亮部信息,一帧长曝光图像重点采集暗部信息,两帧图像同时输入ISP,经过一定的算法处理后生成一帧输出图像,能够同时还原亮部和暗部信息。算法对图像进行融合的过程称为frame stitching,或者称为WDR fusion,意思是将多个图像融合拼合为一体。

两帧融合是最常见的方案,也有一些sensor支持三帧甚至四帧融合成一帧。下图是三帧融合的例子,右侧是合成的WDR图像。

多帧融合WDR技术由于参与融合的像素并非同时曝光所以会存在运动伪影问题,如下图所示,由于小孩快速移动位置造成了虚影。

以及下图(右)中的风扇叶片,在多帧合成时会出现错误。

如果sensor 不再以帧为单位输出,而是以行位单位输出,则可以缓解运动伪影问题。如下图所示,sensor 先输出一行长曝光像素,再输出一行短曝光像素,然后开始输出下一行。当最后一个像素扫描完毕时,sensor已经完成了两帧图像的输出。三/四帧合成WDR也是同理。

这种输出方式被OmniVision 称为Staggered WDR技术,下面是OV Staggered WDR sensor 的帧结构示意图,

SONY支持WDR的方式称为DOL(Digital OverLap)技术,它支持两种像素输出方式,方式1是在同一个码流中替输出,方式2是使用两个码流并行输出,如下图所示。

SONY DOL - single stream 交替输出方式在单码流输出方式中,

第4n组数据是sensor第2n行像素的长曝光数据(LEF:R/Gr/R/Gr/...);

第4n+1组数据是sensor第2n-4行像素的短曝光数据(SEF:Gb/B/Gb/B/....);

第4n+2组数据是sensor第2n+1行像素的长曝光数据(LEF:Gb/B/Gb/B/...);

第4n+3组数据是sensor第2n-3行像素的短曝光数据(SEF:Gb/B/Gb/B/....);

以此类推。。。

需要注意的是,短曝光像素相比长曝光像素有固定的4行延迟,所以最先输出的四组短曝光数据是无效的。

SONY DOL - main/sub stream 并行输出方式3.14.2 Interleaved

第二种模式又称BME(Binned Multiplexed Exposure)。这种sensor每隔两行的曝光时间分别设为短曝光和长曝光。然后融合长短曝光的两帧图像,成为行数减半的一帧WDR图像。空间分辨率损失了一半,就好像是做了1x2binning,所以叫做BME。SONY IMX135 和IMX258使用了这一技术。

3.14.3 Chopped

第三种模式主要用于解决WDR的短曝光容易遇到flicker的问题,需要针对短曝光做特别的斩波支持,具体可参考本文1.10小节。

3.14.4 Lin-log

第四种模式是使像素具备log响应曲线,自动压缩输入信号的动态范围。当输入信号小于一定阈值时,像素表现为线性响应(linear),当输入大于该阈值后,输出的阻尼正比于信号强度,输出表现为log特性。

当PD表现为log特性时,电压特性用以下公式描述。

这种像素设计的主要缺点是小信号时响应较慢,信噪比低。另外,需要后端ISP 配合解码才能使像素值恢复线性。

一家叫做New Imaging Technologies (NIT) 的法国公司有生产log像素的sensor,2014年公开的像素响应特性如下图所示。

3.14.5 Dual-diode

第五种模式又称SME( Spatially Multiplexed Exposure)。这种sensor在空间上以棋盘格的形式排列高感度和低感度两种像素,通过算法处理融合一帧WDR图像。

这种方式的主要缺陷是sensor的有效分辨率下降,合成后的图像容易出现伪影。

写到此处先悼念一下笔者的好友,Dr. Reberto Marchesini,一个特别温和友善的意大利人,在2010年加入AV之前曾在某sensor公司设计WDR sensor,就是用的这种WDR模式。曾有导演用他设计的sensor拍摄了一部电影,就是下面这个。

Reberto 一生与摩托车有缘。他第一次去AV面试的路上在路口被私家车刮碰了一下,住了两个月院。痊愈出院后第二次面试拿到了offer,他的小女朋友听到喜讯立即辞去了waitress工作回家做起了全职主妇。一年后的12月,Reberto 荣升硬件设计主管,在职务生效的第一天早上,他骑摩托车又被私家车刮碰了一下,不幸的是这次是在高速公路上,私家车时速130公里,亲爱的Reberto 同学当场就撒手西去了,再未醒来。笔者每次回忆起与他共事的愉快经历都不胜唏嘘,感慨世事无常。

3.14.6 LOFIC

第六种模式全称是Lateral OverFlow Integration Capacitor,原理是每个像素都配置一个较大的电容用于收集因饱和而溢出的电荷,如下图所示。

曝光时只要PD达到饱和阱容的一半(Skim level)就会触发相关电路动作把电荷转移到CS电容上。读出时,首先读取PD信号,随即再读取PD和CS电容和总信号。英文skim 常用语描述在水上撇油脂的动作,所以LOFIC 又称为 Skimming pixel。

LOFIC 像素的主要挑战是高效地制造大电容CS。2017年的报道是用6um像素实现了37.5万电子的最大阱容。

添加图片注释,不超过 140 字(可选)2019年的报道是用2.8um像素实现了12万电子的最大阱容。

另据报导,此种技术可以实现高达200dB的动态范围。

3.14.7 Complementary carrier

第七种模式的原理是引入空穴载流子,由于CDTI工艺可以容易实现较大的电容,所以可以实现跨越式的阱容提升,2018年的报道是用3.2um的像素实现了75万载流子的阱容。

参考文献:

3.14.8 DCG

第八种模式由OmniVision提出,原理是每个像素可单独控制增益(使用下图中的CG信号),当工作在HDR模式时,只进行一次曝光,但分两次读出,一次使用HCG (high conversion gain)捕捉暗部信息,一次使用LCG(low conversion gain)捕捉亮部信息。

实验表明这种新的像素结构可以获得很好的WDR性能和明显的图像质量提升,如下图所示。

DCG 像素的性能主要取决于像素的阱容。当最大阱容为60K个电子时,最大动态范围限制在96dB,与理想的>120dB 尚有一定距离,因此最好结合其他的HDR技术(如多次曝光HDR)以取得更好的效果。

3.14.9 Split-diode

第九种模式由OmnVision提出,原文如下。

Split-diode 将像素的光敏区(PhotoDiode, PD)分割成SPD 和LPD 两个部分,分别负责短曝光(Short exposure)和长曝光(Long exposure)。SPD 主要用于捕捉强光信号,所以分配的面积很小,敏感度也很低;而LPD 主要用于捕捉弱光信号,所以面积大,且敏感度高,两者的敏感度比值为6.5:1(约16.5dB)。

使用下图中的DFD信号可以控制LPD 像素的增益(Conversion Gain, CG)。DFD 有效时,放大器SF 的输入端电容变大,LPD 的CG 变低;DFD无效时LPD 的CG 恢复正常。SPD 读出时DFD 必须有效,所以SPD 只有一种CG 选项。

3.15 Retinex 算法

人眼会针对局部的图像特点进行自适应,既能够增加局部的对比度,同时保留大动态范围。1963年E. Land 提出了Retinex 理论作为人类视觉的亮度和颜色感知模型,后人在此基础上发展了Retinex 系列算法,在彩色图像增强、图像去雾、彩色图像恢复方面具有很好的效果,也可以用于WDR融合。由于这种算法计算比较复杂,目前在sensor 端还暂未见产品应用,但是在图像后处理领域已经得到了非常好的应用。随着技术的发展可以预见Retinex 算法有一天将应用在camera ISP上甚至是直接集成到sensor上。

Retinex 宽动态增强Retinex 水下图像还原Retinex 低照度增强Retinex 去雾关于Retinex 的前生今世可以参考笔者的主题文章

刘斯宁:Understanding ISP Pipeline - Tone Mapping87 赞同 · 13 评论文章

4 CMOS Sensor接口

一个CMOS sensor 至少会有两个接口,一个控制接口用于与MCU通信接受配置参数,一个数据接口用于输出像素数据。下图是一个实际sensor的框图。

The block diagram of the KODAK KAC-0310 image sensor illustrates the features available on chip. These include a correlated double sampler (CDS), and frame rate clamp (FRC), and A/D converter (ADC), and post A/D conversion digital logic (Post ADC).下面时一款OVsensor的框图,它的特点是自带AWB和AEC算法,可以省去后端ISP的成本。

下面时一款19MP CMOS sensor的框图,使用SPI控制接口和16-lane LVDS数据端口。

### 4.1 控制接口

目前主流的CMOS sensor多使用I2C串行总线接收主控MCU发来的的寄存器读写命令,I2C总线的最大时钟频率是400kHz。

I2C总线是在SCLK为高电平的中间点对数据信号SDAT进行采样,因此数据信号需要在SCLK为低电平期间完成变化。

I2C Read

I2C Write

4.2 数据接口

早期的sensor常采用DVP等并口方式传输图像数据。随着sensor分辨率不断增加,体积不断缩小,并口的局限性越来越明显,难以满足带宽、体积、功耗等指标要求,所以目前主流的CMOS sensor已转为使用基于高速串行总线的MIPI接口,尤其是500万像素以上的sensor几乎全部采用MIPI接口。

在camera领域人们所说的MIPI接口一般是指MIPI CSI-2规范,该规范使用长、短两种封包格式,其中长包用来传输图像数据,短包用来传输HSYNC,VSYNC等控制信号。

MIPI 的物理层协议主要采用DPHY,目前有1.0,1.2,2.1等几个版本。DPHY v1.2版本支持1.5Gbps传输速率,在采取deskew校准的条件下最大支持2.5Gbps传输速率。

MIPI采用DDR (Double Data Rate) 的采样方法,即一个始终周期内对数据信号进行两次采样,上升沿和下降沿各一次,如下图所示。这样的好处是相同时钟频率下数据带宽翻倍,或者说数据带宽相同的条件下时钟频率降至一半,有利于减少电磁辐射。

MIPI DPHY的数据带宽需要略大于sensor的数据带宽才能保证正常工作,而 DPHY 的数据带宽取决与DPHY的时钟频率,所以需要根据sensor数据带宽计算DPHY的时钟频率。

以1080P@25fps的应用场景为例,sensor 实际输出16bit的RAW数据,则数据带宽的最低需求是

1920x1080*25*16=829.44Mbps

当DPHY数据带宽大于850Mbps时可以满足sensor接入要求。

DPHY v1.2 版本支持1.5Gbps/lane,所以至少有两种接入方法可以满足要求

  1. 接入1个lane,时钟频率425MHz,数据速率850Mbps;
  2. 接入2个lane,共享同一时钟,时钟频率225MHz,数据速率900Mbps。

关于MIPI的更多细节请参考本专栏的主题文章

刘斯宁:Understanding MIPI Interface48 赞同 · 9 评论文章

4.3 帧结构

Sensor的实际像点数量通常比标准的图像分辨率(如2048x1536,1920x1080等)要大一些,多出来的像点主要有两种作用,

  1. 黑像素,即dark pixel,像点上方覆盖的是不透光的金属,相当于零输入的情况,用于检测像素的暗电流水平
  2. 滤波像素,即filter pixel,很多ISP算法会使用3x3或5x5大小的滤波窗口,因此需要在输出分辨率的基础上增加若干行、列使滤波窗口内全是有效像素。

Sensor 的输出信号中除了像素数据之外,还需要一些控制信号用于时间同步。每一帧开始时会有一个FrameStart 同步信号,在一帧内会用HSYNC信号指示哪些时钟周期携带了有效像素,以及会用VSYNC信号指示哪些行中携带了有效像素。未携带有效像素的时钟周期称为消隐周期,又分为水平消隐(horizontal blanking)和垂直消隐(vertical blanking),如下图所示。

以上图为例,sensor输出的每一行由以下单元组成

而sensor输出的每一帧图像由以下行组成

Sensor 处理每一行都需要若干个水平消隐周期用于处理一些内部逻辑,在此基础上用户也可以增加消隐周期用于调节每行的曝光时间,起到间接调整帧率的作用。同理,sensor 每帧都需要若干个垂直消隐周期用于为下一帧做准备,在此基础上用户也可以增加一些消隐周期用于调整帧率。

因此,当sensor 主频确定后,垂直消隐的行数是用户控制sensor 输出帧率的主要手段,而水平消隐的周期数是调整帧率的辅助手段。尽管有两个参数都可以起到调整帧率的作用,但为了简单起见,人们往往以SONY 厂家推荐的水平消隐参数作为参考标准,使sensor 每一行的行长(时钟周期数)与SONY 同类型号保持一致,在此基础上继续调节垂直消隐,达到用户需要的帧率。

需要注意的是,当用户配置的积分时间(行数)参数大于一帧的有效行数时,sensor 会把超出的行数自动视作额外的垂直消隐,因此会在两帧之间插入额外的延时,导致sensor 输出帧率下降。

再举一个OV7725的例子,下图是OV7725的VGA时序,其特点是

  • 每一帧开始时同步信号VSYNC有效并持续4行时间(4 tline),
  • 每一行开始时同步信号HSYNC有效并持续64个tp (1tp=2PCLK),
  • 在HREF为高电平时每一行有效时间为640tp,无效时间为144tp,每一行时间为tline=784tp;
  • 每一帧总行数是510,其中有效行数是480
  • 采集一帧数据的时间是784*510tp。

4.4 曝光控制时序

一般而言,用户向sensor 寄存器中写入的控制参数并不时立即生效的,而且不同参数生效的具体时间也不尽相同。举例来说,假设此时此刻sensor 正在采集第N帧之中,即第N帧的Frame Start 信号已经过去而Frame End 信号尚未到来,如果此时向sensor 寄存器写入新的积分时间,则对于某型号的Panasonic sensor,新的积分时间将在第N+2帧开始生效;如果此时向sensor 写入新的增益,则新的增益将在第N+1帧即开始生效。这个问题会导致第N+1帧采用不正确的增益进行曝光,画面会出现瞬间闪烁,这是不可接受的。为了使积分时间和增益能够同时生效,必须通过软件把两个参数分开配置,第N帧写入积分时间,第N+1帧写入增益,两个参数在第N+2帧同时生效,如下图所示。

在有一些sensor 中,如SONY IMX 477/377/277 等,模拟增益参数是立即生效的,而积分时间则是在第N+1帧生效,针对这种sensor,软件只能在sensor的垂直消隐区配置积分时间和增益,两者会同时在第N+1帧生效。在其它任何时间刷新模拟增益都会导致画面从中间随机位置发生割裂,上面部分采用旧的增益,下面部分采用新的增益,导致同一幅画面亮度

为了减少软件的负担,很多sensor 都已经支持一种影子寄存器,需要同步生效的参数都写到同一组影子寄存器中,sensor 会在下一帧开始前将影子寄存器中的内容刷新到工作寄存器中,并且保证所有参数都按照正确的时序生效,不需要软件针对每一款sensor 设计不同的配置逻辑。

4.5 多sensor同步

有一类camera需要同时捕捉多路sensor的图像,通过一定的算法将多路图像拼接成一个整体,以获得更大的视野。

此类camera对sensor捕捉图像的时间同步性提出了很高的要求,否则运动的物体在位于两个sensor接合部的时候容易出现各种诡异的现象,比如目标突然从画面上消失,或者同时出现在两个画面里。

sensor能够同步出图的一个必要条件是所有sensor共用同一个时钟源。在此基础上,不同的sensor会选择不同的同步机制。

某些sensor(如AR0431)支持sensor在外部信号的触发下工作,称为Trigger模式,此模式需要使用一个GPI引脚,主控设备通过GPI引脚控制所有sensor同步启动帧读出时序。

AR0431 还支持一种名为Global Start 的同步模式,此模式需要将GPI引脚配置成菊花链形式,如下图所示。主控设备(Host)通过I2C总线向所有sensor广播start-streaming命令。由于各sensor是同时收到启动命令,所以只要各sensor配置的帧周期严格一致,它们输出数据的时序也会严格同步,并一致保持到永远。

### 4.6 Companding 模式

目前主流的CMOS sensor几乎都是输出Bayer mosaic格式的数据,数据的位宽一般有8位、10位、12位、14位等级别。Bayer格式和数据位宽一般是sensor的固定参数,sensor型号一旦确定后,后续的MIPI和ISP必须能够支持或兼容该sensor的参数,否则系统将无法正常工作。

多数sensor支持线性输出模式,即输出的像素值与像素采集的光信号成正比。也有一些sensor支持companding输出模式,对线性数据进行压缩编码,使编码数据可以用更少的带宽传输,降低器件成本。

下图使一种典型的companding模式,将12位线性数据(0~4095)压缩编码成10位数据(0~1023)。这种输出方式要求后续的ISP必须支持decompanding,将10位数据恢复成12位数据才能获得正确的图像。

下图说明了companding压缩和decompanding解压缩的原理。

(a) 8bit原图 (b) 3bit companding (c) 8bit decompanding5. 图像伪影 (Artifact)

5.1 摩尔纹 (Moiré)

摩尔纹源于法语,moiré 是一种纺织品,它的纹路类似于水波。在物理学中,摩尔纹指的是两列或两列以上的波在空间中重叠时发生叠加,从而形成新波形的现象。在图像处理领域,当sensor像素阵列的空间频率低于信号本身的频率时j就会发生频谱混叠(aliasing),图像上的表现就是出现摩尔纹,如下图所示。

摩尔纹不仅影响纹路,还可能影响颜色,在图像中引入伪彩,如下图所示。

### 5.2 迷宫格 (Maze)

当图像中存在平行线时,经常会出现平行线的边缘刚好覆盖半个像素的情况,后续的ISP算法必须要决定这个像素到底是属于A物体还是B物体。就像抛硬币一样,ISP会有一半的概率做出相反的决定。如果平行线的间距足够小,则会有相当的概率发生两条平行线搭接到一起的情况。如下图所示。

### 5.3 紫边 (Purple Fringing)

Chromatic Aberration

去紫边镜头原理

5.4 眩光与鬼影 (Flare)

由强光造成的照片发白、形成光晕的现象称作眩光(Flare)。当光源在画面上移动时,光晕也会在画面上漂浮游动,忽上忽下,忽左忽右,有如幽灵一般,所以称之为鬼影。我们知道镜头是由多枚镜片构成的,而镜片则是采用玻璃或塑料等材料制造,如果不进行特殊处理,镜片表面会反射大约5%左右的入射光线。当强光进入镜头时,各枚镜片的表面反射的光线会在镜头和摄像机内部多次反射,最终在sensor上映射出一连串的光晕,这就是眩光和鬼影产生的原因。

5.5 面纱眩光 (Veiling glare)

实际的镜头内总会存在一些杂散光。所谓杂散光就是那些不是按照设计路径传播的光线,它们在镜片和镜筒内部多次反射和散射,最终会扩散到sensor上形成光晕。

当镜头面向大面积强光的时候,杂散光的强度迅速提高,其作用范围也不再局限于图像的局部,而是像洪水一样扩散到整个sensor面积上,整体抬升了像素值,造成全局性的对比度下降,图像看起来像是蒙上了一层纱,所以这种现象称为面纱眩光,下图是一些实际的例子。

下面的英文解释总感觉更加清晰一些。

Veiling glare is a global illumination effect that arises from multiplescattering of light inside the camera’s body and lens optics.

Veiling glare is light that's not intended to be part of the image, but ends up on the recording medium (film or sensor) anyway. It's caused by reflections and scattering of light by optical elements and the lens barrel. This produces an overlay of general brightness, which raises what should be the darkest parts, reducing overall image contrast.

导致杂散光的因素有如下几个:

第一,镜头光学表面的反射。按照菲涅尔定律,凡是存在折射系数突变的地方就会存在反射,也就是只要镜头材料的折射系数不等于1(也就是空气的折射系数)就会存在一定程度的反射,反射的程度与入射光线的角度有关。在镜片上镀增透膜可以降低反射系数,一般来说多层镀膜的效果要优于单层镀膜,但是镀膜会提高镜片的成本,同时也存在收益边界,即使是最优秀的镀膜技术也无法完全抑制菲涅尔反射。

第二,镜片侧面的反射。在镜头设计过程中,设计师往往只是考虑镜片前后两个光学表面对光线的折射,很少考虑镜片的侧面(也就是圆柱面)对光的影响。有些设计精良的镜头会把镜片侧面涂成全黑,阻断杂散光在镜头内传播的路径。因为世界上没有反射系数等于0的全黑材料,所以也只能部分阻断。

第三,光学表面的瑕疵。如划痕,微粒,边角处的崩碎,都会反射/折射额外的光线。

第四,镜筒内部的散射。尽管大多数镜头内部都采用黑色消光材料制作,有些还在内表面上加工了消光螺纹,但是仍旧无法完全消除杂散光的影响。

由于以上原因,当画面中存在强光源的时候,杂散光的影响会变得非常明显,会极大地降低图像质量。

关于杂散光的更多内容可参考知友的主题文章

王庆丰:光学系统的杂散光分析指引88 赞同 · 10 评论文章

5.6 条纹伪影 (Streaking Artifact)

Streak 原意是裸奔的意思,这里特指一些像素值溢出到相邻区域形成的伪影。CCD sensor 存在blooming/smearing现象会引发streak,但是这种机制在CMOS sensor 中并不存在。

如果CMOS 图像中出现streak伪影,则多半是由算法原因引起的(滤波器、编码器等),比如下图的例子。

5.7 等高线效应 (Contouring)

8 位二进制数最多可以表示256个不同的灰度等级。当sensor的精度低于8位时,sensor的输出不能很好地表示渐变的颜色,就会出现下图所示的等高线效应。这种效应在拍摄白墙等单色背景时尤其明显。

另一方面,虽然现在的主流sensor都是10位或者12位的,但是最终图像的存储格式仍然是以8位为基础的,比如H.264/H.265图像编码器需要YUV420作为输入格式,其中亮度分量Y用8位数据表示,这就会不可避免地导致contour效应。

为了缓解contour效应,一种常用的办法是在量化过程中人为地施加随机噪声,噪声的作用是模糊原本清晰的量化边界,使灰度渐变显得更加平滑,这种技术叫做抖动(dithering),可以有效地缓和contour。另一种办法则更加简单直接,即用10~12位数表示YUV,从源头上避免精度损失。这种方法涉及到编解码、存储、传输、显示整个链条的设备升级,因此必然是一个缓慢的过程。

参考资料

https://clarkvision.com/articles/digital.sensor.performance.summary/clarkvision.com/articles/digital.sensor.performance.sum

转载:全栈芯片工程师

声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
david
红包 点赞 1 评论 打赏
评论
0个
内容存在敏感词
手气红包
    易百纳技术社区暂无数据
相关专栏
置顶时间设置
结束时间
删除原因
  • 广告/SPAM
  • 恶意灌水
  • 违规内容
  • 文不对题
  • 重复发帖
打赏作者
易百纳技术社区
david
您的支持将鼓励我继续创作!
打赏金额:
¥1易百纳技术社区
¥5易百纳技术社区
¥10易百纳技术社区
¥50易百纳技术社区
¥100易百纳技术社区
支付方式:
微信支付
支付宝支付
易百纳技术社区微信支付
易百纳技术社区
打赏成功!

感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~

举报反馈

举报类型

  • 内容涉黄/赌/毒
  • 内容侵权/抄袭
  • 政治相关
  • 涉嫌广告
  • 侮辱谩骂
  • 其他

详细说明

审核成功

发布时间设置
发布时间:
是否关联周任务-专栏模块

审核失败

失败原因
备注
拼手气红包 红包规则
祝福语
恭喜发财,大吉大利!
红包金额
红包最小金额不能低于5元
红包数量
红包数量范围10~50个
余额支付
当前余额:
可前往问答、专栏板块获取收益 去获取
取 消 确 定

小包子的红包

恭喜发财,大吉大利

已领取20/40,共1.6元 红包规则

    易百纳技术社区