本文由腾讯数码独家发布
就在本周,iPhone 11的用户现已能够免费晋级自己的相机,而这多亏了全面增强的神经引擎和苹果“张狂的技能”。这种新技能姓名叫做“深度交融”,它的意图是让iPhone 11在特别具有挑战性的环境中供给令人难以置信的相片细节。自从iPhone 11系列发布之后,我花了接连几周的时刻在iPhone 11 Pro上测验了平的这一新技能,并且将其与另一台没有运用深度交融技能的iPhone 11 Pro进行了比照。而事实证明,深度交融技能确实有系哦啊过,仅仅在一小部分最特别的场景下。
首要你需求知道的榜首件事是,关于深度交融技能,苹果对这项技能十分骄傲。在9月份的秋季新品发布会上,苹果花了很大的篇幅来介绍这一功用,并且表明深度交融是经过神经引擎来初次完结输出图画的使命。在实际运用中,该技能会让iPhone一次拍摄就张相片,然后神经引擎会充分利用最新一代的A13仿生处理器的功用,筛选出作用最好的相片,并且对每个像素进行比照和优化,要比没有深度交融技能的相片供给更多的细节和更少的噪点。
请答应我把这个进程扩大介绍,由于这样才干让咱们更具体的了解这项技能。在这9张相片中有8张是经过iPhone的摄像头完结,基本上与传统的拍摄技能相同,也便是用不同的设置参数拍摄相同的相片。而在这种状况下,iPhone 11 Pro的摄像头会在你按下快门之前拍摄四帧短曝光相片和四帧规范曝光相片(iPhone的摄像头会在拍摄运用翻开时开端拍摄缓冲帧,以应对需求进行深度交融或智能HDR拍摄的场景)。而当你按下快门时,摄像头会捕捉到一张长时刻曝光的相片,并供给了更多的细节。
一切这些不同曝光的相片很快就成为深度交融的两个输入来历。榜首个输入来历是内容最具体的短光相片。而第二种来历便是苹果所谓的 “组成长时刻曝光”,这是将规范曝光和长时刻曝光相结合的成果。短曝光镜头和组成曝光长镜头都被输入到iPhone 11 Pro的神经网络中,一同神经网络在四个不同的层面上对它们进行剖析,美国层面都有十分具体的比照。然后体系会将降噪处理添加到每张相片中,最终再逐一像素将两者交融在一同。这整个进程大约需求一秒钟的时刻,但拍摄运用会对这些相片进行排队,这样就能够在神经引擎的高效核算进程中继续拍摄进程,然后将一切的相片都交融到一同。
假如你了解苹果的核算拍摄功用,那么这种深度交融技能听起来很像上一年iPhone Xs呈现的智能HDR。从理论上讲,二者比较类似,由于都是让iPhone在拍摄之前会不断的拍摄缓冲图画,避免快门推迟的现象。不过在实际运用中,深度交融技能不仅仅是提取不同曝光的高光和暗影来呈现更多的细节。它还能够在超详尽的等级上作业,以避免某张相片呈现丢掉细节的问题。
或许上面的介绍听起来有点杂乱,其实当你在运用支撑深度交融功用的新iPhone时,其实彻底没有必要了解这个进程,由于体系主动激活深度交融技能。至于何时激活、何时发挥作用,有几个关键问题需求了解。首要,深度交融在超广角摄像头上不起作用,并且深度交融只适用于低光或中光场景。在长焦镜头上,深度交融一向都在发挥,除了在环境十分亮堂的状况下,深度交融才不会进行太多的干涉。
还有一种状况深度交融也不会激活,那便是咱们将拍摄运用设置称“取景框外拍摄”的选项,那么在这个场景下深度交融也不会起作用。所以假如你想测验深度交融技能,就不要挑选这个选项。
已然咱们现已了解了一切的技能上的细节,那么接下来让咱们来看看深度交融终究能够带来怎样的作用。不过说实话,我个人的感觉是提高尽管有,可是并没有那么显着。在iOS 13.2测验版呈现深度交融功用之后,我在iPhone 11 Pro上安装了这一测验版,一同在另一台手机上保留了老版别体系,也便是没有深度交融的功用。然后我就在各种不同的环境下拍摄相同的相片坦率地说,我其实常常分辩不出深度交融和非深度交融技能处理过的相片之间的差异。
首要来看下面这两张中心车站大钟的相片,两张相片都是用iPhone 11 Pro的长焦摄像头拍摄,那么你能说出哪一张是用深度交融技能拍摄的吗?其实很难,除非你能深入的观察到下面我要说的差异,不然榜首眼看上去,基本上都看不出两张相片的差异。首要细心看看大钟上的数字,它们在深度交融镜头中显得更明晰,而美国国旗上的波纹和周围石柱上奇妙的纹路也是如此。或许你或许注意到没有深度交融的相片在这些区域好像看起来有点含糊,而深度交融技能处理过的相片,细节确实是更明晰了。
这种差异很奇妙,在不扩大的状况下,咱们仍是能够清楚的看到深度交融版别相片的细节更多、画面噪点更少。而这两张相片也展现了iPhone 11 Pro在弱光环境下令人形象深入的成像作用。中心车站的主大厅其实是一个十分暗淡的场所,尤其是在拍摄这组相片时仍是傍晚的时段,两张相片看起来都不错,但深度交融处理过的那张确实略微好一点。
现在咱们再来看看另一个不同的比方。这是一个比较无聊能够展现细节丰厚程度的场景,是阴雨天曼哈顿市中心的摩天大楼。在这种状况下,咱们真的需求扩大才干看到一般iPhone 11 Pro相片和运用深度交融技能相片之间的细微差别,整体来说两张相片十分类似。仅仅深度交融的版别噪点更少,窗口的反射画面在右图中更明晰。我能看到的首要差异是在接近相片底部白色天阶上面的白色栏杆上。在非深度交融的相片中,看起来几乎是含糊的作用,就像上面中心车站大钟上的数字相同,白色的栏杆在深度交融的相片中还算明晰。
我发现在整个测验进程中,我都在十分吃力的寻觅两张相片的不同之处,由于两张相片的作用都很不错,而深度交融相片在某些环境中仅仅偶然会有更显着的作用。再着重一次,它只适用于弱光环境下的超广角镜头,并且它一般适用于用长焦相机拍摄的相片,而在光线足够的环境下不会发挥作用。
不过当我开端拍摄皮裘的时分,这种状况就改变了。从理论上来说,这也是深度交融发挥作用的场景,由于细微的毛发往往会含糊在一同,但神经引擎能够辨认这些细节,并将它们交融在一同,构成深度交融的相片。这或许便是为什么苹果在9月的发布会上为什么会呈现出满脸胡须的“海王”穿戴一件花毛衣来展现深度交融技能的原因。在我的测验中,藏着络腮胡、穿戴质地精美的毛衣的海王被一只名叫“花生”的吉娃娃替代。
它看起来超心爱,并且只要1.36千克重。小狗的身体上覆盖着柔软又精美的皮裘,每个毛的色彩都略有不同,看起来乃至有点挑染的作用。尽管在这两张相片中“花生”看起来像天使,但很简单看出,在左面的相片中头顶和耳朵周围的毛发被含糊掉了。而右侧深度交融相片中,皮裘仍然很明晰。让咱们扩大之后细心比照:
在这种状况下,没有深度交融的相片在某些当地看起来没有对上焦,而深度交融在这个场景下就发挥了魔法。越扩大,深度交融的作用就越显着。而现在我再也不想用没有深度交融技能的iPhone给“花生”拍摄了。
而这让我想到了深度交融技能中一个比较古怪的部分,我觉得这有点让我感到困惑。深度交融是一个奥秘的功用,由于它的作业流程咱们都并不彻底了解。在我的测验中,有时很难判别这项技能究竟会在什么时分会发挥作用。而这也是一个很奥秘的当地,由于在该功用的榜初次呈现之后,有些场景的相片差异并不是很大。比方,假如深度交融仅仅会偶然发挥作用,并且仅仅在扩大的状况下才发挥作用的状况下,那为什么苹果要在iPhone发布会上对其如此浓墨重彩的介绍呢?为什么苹果要花两个多月的时刻来完善深度交融技能之后才向用户敞开呢?
我也答复不了这些问题的答案,尽管我也有自己的解说。我的答案是,深度交融确实是苹果有史以来最杂乱的核算拍摄技能之一,而现在咱们仅仅触及了皮裘罢了。能够预见,未来苹果将在深度交融的基础上,树立并创造出更多令人形象深入的功用。比方谷歌在Pixel上独有的Super Res Zoom功用,相同能够让咱们一窥未来。谷歌Super Res Zoom功用结合了Pixel 4的数码变焦和光学变焦功用,能够供给更明晰的变焦作用。假如苹果也现已在探究将图画交融在一同以取得更完美细节的办法,那么能够幻想苹果或许会考虑进一步改善它的变焦功用,尤其是现在旗舰iPhone 11 Pro现已有了三个摄像头。
但这一切都仅仅猜想。现在,深度交融是否会让咱们大吃一惊并不重要。假如你有iPhone 11或iPhone 11 Pro,在未来晋级到iOS 13.2正式版之后就能够体会这一功用了。而假如你有一部老款的iPhone,那么也无需为错失这个功用而懊丧。深度交融功用未来肯定会不断进步,不管明年会变成什么样,都很或许比现在的体现更令人形象深入。尽管如此,iPhone 11和iPhone 11 Pro的摄像头作用现已十分令人形象深入,添加的超广角镜头也确实让喜爱拍摄的用户变得很高兴。