据媒体报道,下一代iPhone将搭载sony提供的1200万像素摄像头,并且采用RGBW图像传感器传感器,以提升低光环境的拍摄效果。
实际上华为新发布的手机P8已经用上了这个技术。使用RGBW传感器,华为号称能够提升照片32%的亮度(高对比度),低光环境下降低78%的彩色噪点。
什么叫RGBW呢?其实就是指红绿蓝白的英文缩写,指的就是配备了红绿蓝白四种像素点的传感器技术。那么,究竟RGBW传感器与我们常见的那些“非RGBW”传感器有哪些不同?优势又在哪里呢?
摄像头成像过程是这样的,镜头进入光线,CMOS把光线转化成电信号,记录下来,ISP芯片对信息进行处理,最后由图像处理器处理储存。RGBW指的就是CMOS上的技术。
CMOS可以视为一个个小点的阵列,每个小点对光线进行转换,而这些像素点排列的最常见形式就是所谓的拜耳阵列(Bayer array)。但是CMOS本身是单色的,而我们看到的世界是彩色的,这就需要一个转换。
基于人眼对于红绿蓝三种频率光线不同的敏感性,柯达公司的影像科学家Bryce Bayer研发出了这种一红一蓝两绿的像素排列方式来模拟人眼对于自然界的颜色感知。如果按照RGBW这样的英文缩写来命名的话,这种传统的Bayer排列方式可以缩写为RGBG。由于人眼对绿色最为敏感,所以Bayer阵列中绿色像素点的占比才会更多一些。
通常,我们用拜尔排列的滤色片来做这个转换,在图像传感器前面,设置一个滤光层,上面布满了一个个滤光点,与下层的像素一一对应。每个滤光点只能通过红、绿、蓝之中的一种颜色,不同颜色的滤光点的排列是有规律的:每个绿点的四周,分布着2个红点、2个蓝点、4个绿点。绿点的数量是其他两种颜色点的两倍。这是因为人眼对绿色最敏感,所以滤光层的绿点最多。
而红蓝绿三色经过调和计算可以组合出五颜六色,于是CMOS采集的信号在经过处理环境,就能拍出彩色照片来了。
华为所谓的RGBW,就是在红、蓝、绿三色之外,再加一个白色的滤色片,组成四种颜色,然后再计算。
为什么要这样干呢?因为红蓝绿三色滤色,每一个都会过滤掉部分光线,这就降低了亮度,因为光线损失的比较多。而加入一个白色滤色片,白色是不会过滤光线,投过滤色片照射到CMOS上的光线就比较多,这就增加了亮度。
而亮度增加,低光环境下的噪点就减少了,这就是华为宣称的提升照片32%的亮度(高对比度),低光环境下降低78%的彩色噪点。
从实际拍照的样张画面看,华为P8在暗光下的色点确实减轻了不少,这个技术是有效的。
但是,为什么这种东西并不普及呢?只有索尼在新款CMOS里面部分使用。因为这种技术并不是没有代价的。
一个CMOS上的点阵数量是有限的,当你把四分之一的滤色片去掉换成白色,就意味着这个CMOS上面采集色彩的CMOS面积下降了四分之一。
对于彩色图像来说,原始信号的减少意味着色彩饱和度的下降和色彩层次的丢失。虽然通过后期处理,可以强行提升色彩饱和度,但是色彩层次感的下降是很难通过后期ISP的算法优化来解决的。
所以这种CMOS拍出来的照片会显得比较平。亮度的提升是以色彩的下降为代价的,这是一把双刃剑。
就本质来讲,RGBW阵列也属于“拜耳阵列”的一种变种,毕竟这种方式也同样需要经过“猜色”(插值)的过程。虽然在接受的光强度方面,RGBW会比RGBG高出一些。但就颜色方面来讲,RGBW相比RGBG在绝对的颜色信息上又损失了一部分,所以我们也不能完全认为RGBW会优于RGBG,只是侧重点不同罢了。
其实,类似的技术曾经被用在液晶屏幕上,传统上液晶屏幕也是RGB三色排列(不是拜尔排列),曾经有厂商加入白色,来提升亮度,但是代价是色彩黯淡,这种屏幕反而没有流行开。
如今华为吃了螃蟹,在手机上用RGBW的CMOS,市场反应如何我们还要看看,大家是更喜欢亮度还是色彩,市场说了算。
现在手机拍照技术发展了很多流派,RGBW算一种,双摄像头,多帧合成……。
参考资料: 1.《技术分析46期:华为P8上的RGBW四色传感器》
2.《别只盯着麒麟930/935了 看看华为P8的RGBW传感器又如何?》
这是我很早之前整理的安防视频监控知识,没有维护和更新了,现在这个网站已经转型成个人博客。需要了解安防相关知识,资料的可以去我的这个安防知识专业网站:https://ipc.name
评论