苹果在研发电影模式的时候 曾经在片场观察摄影师如何工作

摘要:

9月25日上午消息,今年四款iPhone 13都支持“电影效果模式”,让用户可以录制具有浅景深和自动对焦变化的视频,外媒TechCrunch与苹果公司营销主管Kaiann Drance和设计师Johnnie Manzari进行了交谈,了解该功能的技术原理和幕后故事。

edda-ebe45eb1ef660d187ca9a3d2dfde0262.png

Drance表示,对于照片而言,电影模式比人像模式更具挑战性,因为实时渲染自动对焦变化是一项繁重的计算工作。该功能由A15仿生芯片和人工智能神经引擎驱动。

“为视频带来高质量的景深将比人像模式更具挑战性。与照片不同,视频(的景深)会随着拍摄者的移动而动态变化。这意味着我们需要更高质量的深度数据,以便电影模式可以跨类别、在人物、宠物和物体等之间都生效,需要连续使用深度数据来跟上每一帧。而实时渲染这些自动对焦变化,背后是繁重的计算。”

但电影模式并非只是技术的进步,还有对真实物理世界的观察。

Manzari补充说,苹果公司的设计团队花时间研究电影制作和摄影技术的历史,以实现逼真的焦点过渡。

“在设计过过程中,我们首先对目前已有的图像和电影制作怀有深深的敬畏与尊重。我们着迷于诸如哪些图像和电影制作原则是永恒的?什么工艺在文化上经受住了考验,这背后的原因是什么?”

Manzari表示,苹果公司在片场观察摄影指导、摄影师和其他电影制作专业人士,以了解浅景深在故事中的目的,这让苹果意识到引导观众注意力的重要性。

在评测iPhone 13时候,新浪数码也提到了这个功能,它是苹果公司用硬件计算能力做基础,在这之上发挥其计算能力,将人文内容引入的过程。这个效果的背后,是A15仿生芯片的强大计算能力作后盾,它强到足以一边拍杜比视界HDR视频,一边用AI能力去实时理解该对焦给谁,并把焦外做虚化处理。还能把景深信息保留下来进行二次处理。

对一般用户来说 “电影效果模式”的意义已经很明显了,无论是vlog,还是小团队视频制作组,都获得了一种成本更低、更轻便易用的方式,去实现过去只有光学镜头才带来的效果。

查看评论
created by ceallan