首发于周三电子
为什么说像素越高,拍照就越好

为什么说像素越高,拍照就越好

这篇文章主要来自我2015年回答知乎上的问题 如何评价魅族官方说“高像素等于好画质”? - 知乎 ,这次追加了一些料和说明。其实就这两年的学习经验,这篇文章还是有一些值得商榷的地方,比如此文评论中@麦克斯伟 大神提到的内容,大家可以去看一看。我们在谈高像素“就是好”的时候,却发现绝大部分专业高端单反没有在走高像素路线,且三星近两年的旗舰手机在摄像头的分辨率方面却有着倒退,但这大体上并不妨碍这个论调的形成。

很多人被大量媒体(还有被HTC)洗脑说,高像素没意义,要看也得看单个像素尺寸之类云云。这篇文章并没有进行非常深入的探讨,是我前两年写的了,主体上提供了一种思路。这篇文章针对的阅读群体仍是大众人群。

另外,随着对“噪声(Noise)”这个概念的理解深入,我们越发认为,不同画幅的设备拍照,其画质好坏很多时候可能不应该考虑像素尺寸,而应该考虑不同画幅的图像传感器前方的光圈究竟有多大的问题,这里的多大是指光圈孔径尺寸,而非F值——好比一个F1.8的残幅镜头,一个F1.8的全幅镜头,为保持相同的取景视野,其光阑直径相较,全幅相机会明显更大。

不过这里并没有要深入探讨这个问题,即便它对于佐证文章观点甚至还有那么点价值。


为什么很多人说高像素没意义

这其实很好理解,事实说明问题,就是很多超1000万像素的手机摄像头,拍出来的照片还不如某些800万像素的手机(如iPhone 5s),甚至连高像素优势所在的分辨率都不及,这还不足以说明问题吗?(而且2000万像素?拜托那么大,谁用得上啊!)

的确,探讨相同尺寸的CMOS图象传感器(比如大家都是1/3英寸),如果不在设计和工艺上做出改进,画质是会变糟的。这就要谈到可以让很多人高潮的单个像素点尺寸了:一个800万像素的1/3英寸图象传感器,单个像素点的尺寸是1.4μm;一个1300万像素的1/3英寸图象传感器,单个像素点的尺寸是1.1μm。

在图象传感器尺寸不变的情况下,被切分得越多块(也就是像素数目越大),则单个像素尺寸越小,像素密度越大。像素密度越大,临近像素产生串扰的情况也会愈发严重。什么意思?看下面这张图:

(图1)

上图图左是两个像素,一个感红像素,和一个感蓝像素。图左就是串扰的情况,即外界光在穿过透镜和色彩filter以后,它可能会穿越到其他临近像素(此例中是原本属于感蓝像素的光穿越到了感红像素)的感光二极管上——但这部分光本来是不属于临近像素的。这样像素之间就产生了串扰。这会对成像造成比较恶劣的影响。

不止是串扰,还有一些问题。看上面这张图,光线在抵达图象传感器的时候,首先要经过上面的“micro lens”,也就是微透镜。仔细观察相邻两个微透镜中间其实有个小间隔。想一想,如果外界光线是照射到这个小间隔的位置,那么这部分光就浪费了(死在了半路上)。如果说像素密度提高,这种浪费会变得愈加严重。

(图2)

还有在设计上更为现实的问题。比如说,每个像素并非所有区域都用来感光的,感光区域周围有一部分是电路,如上图左边这个围绕在黄色像素区域周围的Circuit section蓝色部分就是电路。1300万像素1/3英寸图象传感器单个像素尺寸肯定比800万像素的小了,那么这部分感光区域还要进一步缩小。手机级别的图像传感器,那点可怜的像素尺寸本身就很无奈,更何况还要让电路占据位置。

其实像素变多,但设计不变的话,还会有更多的问题产生,上面列举了几个颇重要的。下面这两张图来自国外深度拆解专家Chipworks,对于各位同学理解“像素(Pixel)”的概念是有帮助的。

(Chipworks拍摄的尼康D4单反图像传感器X光,很容易发现,每个像素的感光区域周边都还被其它乱七八糟的东西占据)

(从侧面看——也就是图像传感器一刀切下去之后从侧面观察,像素则是长这样的,最上面的那个就是micro lens,从光线照射到微透镜并进入像素,中间还有各种乱七八糟的东西)


然而,这些问题都可以解决的

有关注过手机所用图象传感器的同学,对于第一部分援引的这两张图应该都不会陌生。尤其是第二张,这是索尼用于宣传自家堆栈式图象传感器的图片(但发明这种堆栈式结构的似乎并不是索尼)。就是如前文所述,既然像素周围有电路,牺牲了感光区域的尺寸(像上面的X光图一样),那就把这个电路移到下层去,这样上面不就有更多的空间拿来感光了吗?图2的右边部分就是这么做的。

这个设计其实的确是成效卓著的,尤其在手机这种图像传感器尺寸小得可怜的设备上。索尼给手机所配的第一代堆栈式图象传感器的典型代表产品是IMX135——这颗传感器在三星Galaxy S4手机身上发挥出了很好的实力。即虽然1300万像素的单个像素点尺寸变小了,但每个像素的感光区域面积却相较800万像素没什么损失。所以各项指标相较上代800万像素图象传感器都有提升,不光是解析力。

这就是个典型的,在图象传感器尺寸不变的前提下,提升像素数量,但画质也跟着提升的例子。当然,这里面还有一些可以拿来说的点,就是堆栈式图象传感器是建立在背照式BSI的基础上的。

背照式图像传感器,或者叫BSI,其实也就是将色彩filter和感光层之间的电路移到后面去,这种方案也能一定程度解决串扰和光线利用率低的问题。可能很多人会奇怪,既然此种策略成效如此卓著,那人类早干嘛去了呢?其实无论是背照式,还是什么堆栈式,对制造工艺都还是有一定要求的,人类科技进步才有了这样的基础。

说到串扰,第一部分就谈到,如果光线是斜着照射进像素,那么很可能在经过微透镜和色彩filter之后就穿越到其他像素去了(图1)。解决这个问题的方案就如图1右侧那样,在像素井之间加入隔断就可以了,运用类似设计的像是三星比较著名的ISOCELL图象传感器,还有苹果iPhone 6s/6s Plus首次将像素数量提升到1200万时,像素间也用上了这种隔断的设计。实际上,现如今的绝大部分旗舰手机摄像头都已经用上了所谓的像素隔离技术,小米还曾大肆宣传过这种方案。

(索尼的DTI像素隔离技术示意)

至于第一段说到的微透镜中间有个小间隔,这个问题也完全可以通过将小间隔去掉的方式来解决嘛,无非就是每个微透镜覆盖区域变大一些不就好了——当然这一步的迈进也并不像我们说得这么简单。

(佳能550D单反,在图像传感器像素的微透镜设计上做了较大的改进,注意上图500D微透镜之间还存在较大的间距;这种设计能够极大提升光线的利用率)

像素究竟怎么设计本身就是一门艺术,比如charge well究竟多深,微透镜曲率该是多少,感光二极管的形状尺寸等等。随着索尼、东芝(图象传感器部门已经被索尼收购)、OV这类企业的努力,图象传感器的设计都是在日趋完善的。并不像很多人想的那样,像素数量和成像质量没多大关系。而之所以要这么完善,总体上是在朝着高像素的方向发展。虽然这样的完善需要时间、精力和金钱,而且可能是大量资金砸进去。

你以为索尼、东芝真的那么傻,在搞像素竞赛忽悠群众吗?


高像素就等于好画质!

当然,这个小标题是有前提的,要不然前面的内容也就白说了。前提一是ISP算法和镜头用料相同的情况下,其次就是前面探讨的重点,工艺需要提升。在这样的前提下,奔着高像素去,是利大于弊的。

或许很多人会觉得奇怪,究竟何以要那么高的像素,眼瞧着4K屏幕都还没普及,4K屏幕也就800万个像素,所以拍照要5000万像素干嘛?高像素的一大核心就是缩图大法什么是缩图大法?就是把2000万像素的照片缩成800万像素——索尼就很喜欢这么干,Xperia好几代的拍照高级模式,出片都是800万像素,并不是因为考虑存储空间,而是缩图大法的奥义。图片只要一缩,一切都变得更加美好了,为什么?

举个空想的有趣例子,如果说有两个图象传感器,尺寸都是1/2.3英寸(按照索尼2070万像素的IMX220假定的尺寸),但它们的物理像素数目不同,一个是2000万像素,一个是800万像素。拍出来以后,我们将2000万像素拍摄的照片尺寸缩成800万,去和原生800万像素拍出来的照片对比。只要工艺相差并不太大,缩图后的照片必然比另一个直出片就是800万像素的照片要高,为什么?

数字照片拍出来都会有噪声,尤其100%放大后可以看到各种悲催的问题,不管是拜耳结构排列本身的问题,还是感光性能不佳之类。如果说,能将多个像素合成为1个像素,那么不管是何种算法(假定是几个像素取亮度均值,合成1个新的像素),其信噪比或者叫纯净度都会更出色。基于此,在信噪比的问题上,必然是2000万缩成800万像素的成片,比原本就只有800万像素的直出片更好。这是“过采样”原本就该有的优势,高像素之所以应用“缩图大法”,就是对“过采样”的追求。

另外还可以考虑锐度的问题,这个在概念上并不容易说明白。通常我们认为,某个被摄物与周边环境交界处相邻像素的亮度反差越大,则锐度越高(锐度可一定程度反映清晰度)——人眼很多时候为什么会认为某张照片清晰,这与锐度有很大关系,比如某个物体的边界,与其周围环境的像素的亮度差异比较大,则人眼通常会认为这东西拍得比较清晰。

如果作量化,可以说亮度从10%-90%需要经过多少个像素,这个值可以用以反应画面锐度——经过的像素越少,自然就是锐度越高。一张2000万像素的照片,缩成800万像素,无论先前的锐度是多少,在缩了以后,亮度从10%-90%经过的像素数量都会变少,这就是锐度的提升。

所以,如果你需要获得一张800万像素的照片,必然是用2000万像素的手机去拍,然后缩成800万像素,可以获得更好的效果,不管是在信噪比还是清晰度上。高像素的意义自然就能够凸显出来。要不然为什么诺基亚要搞808Purview和Lumia 1020这种4100万像素的手机(当然,它们还有一层意义是在于图象传感器明显更大)。究其本质,就是“超采样”或者“过采样”。如果说东芝定制一款1/1.2英寸的图像传感器,却只做了500万像素,这是个怎样的故事呢?

尤可类比的,有没有听过Lucky Imaging的说法?幸运成像。就是按下一次快门,相机实际拍摄好几张照片,然后把这几张里面最好的选出来,或者将其中几张最好的进行合成,算出一张最干净的——这也是一种过采样。上述高像素的过采样在原理上与此是一样的,只不过层级不同,高像素的这种过采样是“空间过采样”。

另外,解决一个问题,很多人说。单个像素尺寸变小了,高感必然变差。我在去年写的Lumia 950与iPhone 7拍照对比的文章中已经明确提到过,高像素的解析力优势,在暗光环境下拍摄时可能会逐渐丧失,但也没有比低像素设备更差,且在信噪比方面也有更优的表现。

有缩图大法在,或许高感都不再是问题,只要图象传感器是在上述理想状况下。这其实非常好理解,再举个不是很恰当,但易于理解的例子,Lumia 1020的图象传感器单个像素尺寸实际是1.12μm,而iPhone 6的图象传感器单个像素尺寸是1.5μm,如果把两者所拍照片都缩到500万像素的尺寸,显然4100万像素具备了碾压性的优势,根本无视什么单个像素尺寸,足见缩图大法的牛掰。

当然了,毕竟底大一级压死人,Lumia 1020的底比iPhone 6大得多了去了。有兴趣的各位可以去DxOMark看一看同样是全画幅的同代单反,在高感表现上,是否像素多少无甚区别(主要表现在DxOMark给出的Print输出,类似于大家都把图片缩成800万像素,一旦如此,高像素总是有好处的),这更能说明问题。

到这里,我几乎又要再重复一次结论了,就是高像素就是好,高像素就是棒,虽然是有前提的,就是图象传感器在设计和工艺上做得足够到位,那么高像素的确是会带来好处的。

高像素的另一点优势,很多人大概是忘了,Lumia 1020可以干什么?无损变焦,也就是截幅变焦。高像素带来的另一个好处就是截取某部分,画质也不会有太大牺牲,这对构图,尤其是手机这种物理焦距不能变的设备而言显得很有意义。或者说,像我这种常年要参加发布会的人,都是随时要按下快门的,后期截取其中部分,高像素的价值自然能够体现出来。

扩展阅读,也是我写的:为什么Lumia 1020拍照在DxOMark排名中这么差? - 知乎专栏


超高像素可能会受制于衍射效应

其实图象传感器分辨率做得很高,首先需要镜头能跟得上,镜头自己也有解析力的限制,所以这两者必须要搭配得宜才行:镜头可能会是一个短板。而且另一个问题是,高像素带来单个像素点尺寸变小,对镜头而言,这会产生衍射效应的加剧。所谓的衍射效应,对成像不了解的同学大概没怎么听说过。这里说点常识。

有用单反的各位应该知道,镜头存在着各种像差,比如说拍出来的照片中央区域跟周围的解析力有差异啦,或者画面周围有暗角啦,或者画面有畸变啦,甚至颜色表现存在偏差,这些都可以统称为像差。绝大部分像差是可以通过收缩光圈来改善的,比如拍的时候不要用镜头的最大光圈,将光圈收缩2-3档,画质会有明显改善。

但有一类像差(或者也有不将之归于像差的),会随着光圈的收缩变得越来越严重,那就是衍射效应。用过单反的同学知道,刚开始收缩光圈,画质会越来越好,但收缩到一定程度(如f/11),画质又会开始下降,画面的解析力变得越来越糟。这主要是衍射效应导致的。手机摄像头当然不能改变光圈,但手机摄像头的光圈孔径本身就小,而且像素点极小,这会产生问题。

有个概念叫衍射极限光圈,意思就是当超过这档光圈以后,再收缩,画质就会开始变差。推论公式:衍射极限光圈=像素尺寸/(1.22x光波波长),红光的光波波长最长,所以红光更容易产生衍射效应。这个公式里,像素尺寸也是个要素。

上面这种类似晕轮的东西叫Airy Disc爱里斑,衍射就会产生这种斑,不仅周围的光晕对周遭像素产生影响,而且对解析力造成的影响更为严重。这个问题在单反摄影领域探讨得很多,尤其是在如今全画幅甚至APS-C画幅的机子采用高像素的情况下。但在手机上,似乎从未探讨过。

点到这里就差不多了,有兴趣的各位可以自行去对极限衍射光圈做深入的了解,这是光学对半导体的一种限制。我也没有能力继续做探讨。这个问题大约早就在影响手机成像了(尤其像素超1300万,光圈小于f/2.0的设备)。


最后回归正题,结论:魅族的这种说法是不无道理的。但成像实际还涉及到ISP算法、镜头这两个重要的因素,尤其是ISP算法。为什么iPhone那么多年让800万像素保持不败之地,很大程度是因为ISP算法极其优秀,这些就不做深入探讨了。

* 转载请注明作者欧阳洋葱,和出处周三科技

编辑于 2017-06-12

文章被以下专栏收录

    周三电子是主要以成像、半导体和移动领域为探讨对象的媒介;尝试用简单的话说漂亮的技术理论;对实操和应用毫无指导价值,以纸上谈兵为终极追求...