北京医院白癜风多少钱 http://pf.39.net/bdfyy/今年9月,苹果公司市场总监菲尔·席勒(PhilSchiller)详细介绍了iPhone11的新摄像头功能,他自豪地说,“这一切都是计算摄影技术的功劳。”当谷歌在周二发布其新款Pixel4手机时,我们也可以期待它将在计算摄影方面即将迎来的开创性局面。
原因很简单:计算摄影可以极大地提高你的相机拍摄质量,帮助你的手机赶上甚至在某些方面超过昂贵的相机。
但计算摄影到底是什么?
简而言之,它是一种数码处理技术,可以让你的相机硬件发挥更大的作用。比如,在改善色彩和光线的同时,把细节从黑暗中拉出来。考虑到我们手机中微小的图像传感器和镜头的局限性,当然还有这些相机在我们生活中日益重要的作用,这一点是非常重要的。
听说过ApplesNightMode和谷歌sNightSight吗?那些从昏暗环境中提取出明亮的、清晰的镜头便是计算摄影的功劳。它无处不在,甚至曾经出现在一款价值5.7万美元的中画幅数码相机中。
第一步:HDR和全景
早期计算摄影被称为HDR,是高动态范围的缩写,小型传感器不是很灵敏,这使得它们在一个场景中可以同时与亮区和暗区斗争。但是,通过拍摄两张或多张不同亮度的照片,然后将这些照片合并到一张照片中,数码相机可以获得更高的动态范围。简而言之,你可以在高光和阴影中看到更多的细节。
当然,它也有自己的缺点。有时HDR看起来很假。但自从年苹果在iPhone4中引入HDR以来,HDR现在是大多数手机摄像头的默认模式。
谷歌使用HDRPlus方法将HDR提升到了一个新的层次。它没有将在黑暗、普通和明亮环境下拍摄的照片组合在一起,而是捕捉了大量的黑暗、曝光不足的帧。巧妙地把这些照片叠加在一起,让它积累到正确的曝光,但这种方法在明亮的区域效果更好,所以蓝色的天空看起来是蓝色的,而不是被洗掉的。
年,苹果在iPhoneXS一代中也采用了同样的理念——智能HDR。
全景拼接也是一种计算摄影。加入一个并排的照片集合,让你的手机建立一个沉浸式的,超宽的图像。当你考虑到匹配曝光、色彩和风景的所有微妙之处时,这可能是一个相当复杂的过程。如今的智能手机让你只需将手机从场景的一边扫到另一边,就可以构建全景。
3D视觉
另一个主要的计算摄影技术是3D视觉。苹果公司使用双摄像头来立体地观察世界,就像你的眼睛相距几英寸一样。谷歌的Pixel3只有一个主摄像头,它利用图像传感器和人工智能算法来计算场景元素的距离。
谷歌Pixel手机提供了一个肖像模式来模糊背景。这款手机通过机器学习和特殊的图像传感器来判断深度。
最大的优势是人像模式,这种效果可以让拍摄对象清晰地聚焦,但却把背景模糊成光滑的奶油色——用摄影术语来说就是“漂亮的波光”。
这就是配备昂贵大镜头的高端单反的出彩之处。首先,他们将3D数据转换成所谓的深度地图,这是一个场景的版本,它知道照片中的每个像素离相机有多远。作为主体一部分的像素近距离保持清晰,但后面的像素与相邻的像素一起模糊。
肖像模式技术可以用于其他目的。这也是苹果公司实现其工作室灯光效果的方式,它可以修改照片,使其看起来像一个人站在黑白屏幕前。
深度信息也可以帮助你把一个场景分成几个部分,这样你的手机就可以在背阴和明亮的地方更好地匹配不平衡的颜色。谷歌没有这样做,至少现在还没有,但它提出了一个有趣的想法。
夜视
HDRPlus意外地为我们带来了夜视,它于年被引入谷歌Pixel3。它使用了同样的技术,选择一张稳定的主图像,然后在其他几帧上叠加,形成一张明亮的曝光效果。
苹果也在年推出了夜间模式的iPhone11和11Pro手机。
这些模式解决了手机摄影的一个主要缺点:在酒吧、餐厅、派对甚至是光线不足的普通室内环境中拍摄的模糊或黑暗的照片。在真实世界的摄影中,你不能指望明亮的阳光。
夜间模式也为创造性表达开辟了新的途径。它们非常适合用霓虹灯装饰城市街景,尤其是刚刚下了一场大雨,当道路反射出所有颜色时。夜间模式甚至可以识别星星。
超分辨率
谷歌和苹果的战争正在不断升级。虽然苹果公司有一部加长焦距的相机,但是谷歌使用了一些聪明的计算摄影技巧来缩小差距。
首先是超分辨率。它依赖于对一种称为解码器的核心数码相机处理过程的根本性改进。当你的相机拍照时,它只捕捉每个像素的红、绿、蓝数据。解码器填补了缺失的颜色数据,因此每个像素都有三个颜色组件的值。
谷歌的Pixel3考虑到拍照时你的手会抖动的事实,他们的相机可以在不需要解码器的情况下识别出场景中每个元素的真实红、绿、蓝数据。这种更好的源数据意味着谷歌可以比通常的方法更好地数码放大照片。谷歌称之为超级分辨率变焦。(一般来说,光学变焦,像变焦镜头或第二相机,产生的效果比数码变焦更好。)
在超分辨率技术的基础上,谷歌还增加了一项名为RAISR的技术,以获得更高的图像质量。在这里,谷歌电脑提前检查了无数的照片,以训练人工智能模型。
iPhone的深度融合
今年iPhone11的新功能是苹果公司的“深度融合”(DeepFusion),这是在低至中光环境下对多张照片技术进行的更复杂的改进。它需要四对图像——四次长时间曝光和四次短时间曝光——然后一次长时间曝光。它找到最佳组合,分析镜头,找出应该优化的题材,然后将不同的画面融合在一起。
正是深度融合功能让席勒吹嘘iPhone11的“计算摄影”是一次值得骄傲的技术升级。但它要到iOS13.2才会发布,目前iOS13.2正在测试中。
计算摄影在哪些方面不足?
计算摄影是非常有意义的,但是硬件的限制和物理定律仍然影响着摄影。将照片拼接成全景图和数字变焦,但带摄像头的智能手机在计算摄影方面有更好的基础。
这也是苹果今年在iPhone11和11Pro上增加超宽摄像头的原因之一,据传Pixel4将配备新的长焦镜头。这也是为什么华为P30Pro和OppoReno10X变焦有5X“潜望镜”长焦镜头。
基础的奠定
计算机处理与第一批数码相机同时出现。它有重要的基础意义,那时我们并不叫它计算摄影,但它仍然是重要的,并且一直在改进。
首先,需要通过反编码来填充缺失的颜色数据,这个过程很简单,但是像头发这样的精细细节就很难了。在白平衡中,相机试图弥补蓝色调的阴影或橙色调的白炽灯泡。锐化可以使边缘更清晰,色调曲线可以很好地平衡暗色调和明暗色调,饱和度可以使颜色更流行,噪点的减少可以消除在昏暗条件下拍摄的图像上的色斑。
在尖端技术出现之前,电脑做的工作比电影多得多。
计算摄影还能称之为照片吗?
在过去,你可以通过将感光胶片曝光到一个场景来拍照。在暗房里,任何摆弄照片的动作都是费力的。数码照片的变化要大得多,而计算摄影则把操控提升到了一个远不止于此的新水平。
谷歌使人体暴露在阳光下,皮肤更光滑。HDRPlus和DeepFusion融合了同一场景的多个镜头。由多张照片拼接而成的全景照片并不能反映出一个瞬间。
所以你真的能把计算摄影呈现出来的结果称为照片吗?大多数人可能会说“是”,因为这主要是你按下快门按钮时大脑记住的东西。
而且要记住,计算摄影使用得越多,你拍摄的光子瞬间进入相机镜头的偏差就越大。但是计算摄影正变得越来越重要,所以在未来的几年里会有更多的用武之处。