不知道从什么时候开始,国内消费者判断智能手机高低水准的第一印象,就是看硬件参数。甚至于到了拍照这些项目上,也是下意识地先看参数。
“搭载IMX 586?我知道,这是一枚高端/旗舰传感器,这手机拍照稳了!”大概如此。
判断好坏先看参数几乎成为了部分消费者的信条,但这么“粗暴直接”的思维正好可以被手机厂商利用。例如,在一台定位偏中低的产品上加入一些高端的元件,便能瞬间给人“越级”的错觉。
但在实际体验中,相信大家都深有体会,就算核心元件是同一款,但体验也有很大的差距。究其原因,手机拍照是一个整体的系统,最终成像效果除了要看CMOS之外,还要看其他因素。
传感器保证“下限”,算法决定上限
这些消费者固然是最关注传感器的表现,因为我们知道传感器性能的高低,将会直接影响到最终输出照片的画质。但我们常说的是,传感器作为硬实力只能保证手机拍照的“下限”,但其上限如何,最终还是看拍照算法。
过去曾出现不少“一手好牌打得稀烂”的典型例子,例如索尼手机虽然有着索尼半导体的有力支持,但其产品的拍照表现却从未在DxOMark榜单中进入过前列。这不难看出,有好的底子还不够,算法做得不够好最终也只能徒劳无功。
(前十中竟没有索尼身影)
算法是干什么用的?说白了算法的优劣将直接影响到画面的清晰度、噪点数量、曝光准确度等因素。
我们常说“某某手机厂商算法好”,一般是夸他们的照片虽然有锐化但痕迹不明显,虽然有降噪但不会出现强烈的涂抹感,然后还有曝光精准、白平衡不飘等优点。
(差生的答卷就是这样)
另外,在手机SoC运算能力提升之后,HDR功能已经变成了默认选项,HDR场景的处理也是手机厂商展示算法实力的主要舞台。据小雷所知,有一家手机厂商的HDR算法做得并不好,在拍摄大光比的情况下暗部与亮部的交界处会出现轻微的亮边,经不起细看。
市面上顶尖的拍照手机如华为P30 Pro、三星Galaxy S10+等,他们在算法上的优势是相当明显的,拍照表现非常稳定可靠。而谷歌Pixel系列手机更是“算法优胜”的代表,单摄手机能够力压一众双摄甚是三摄手机,全都是谷歌强悍算法的功劳。