苹果并非芯片和AI公司,但它的芯片和AI真的令人惊艳

来源:虎嗅网 2018-09-13 14:13:00

虎嗅注:本文来自微信公众号“硅星人”(ID:guixingren123),作者:光谱杜晨。虎嗅获得授权转载。

当摩尔定律把其他厂商按在地上摩擦,苹果却凭一己之力完成挑战;不仅如此,新 iPhone 呈现的人工智能同样令人信服。

作为一个聚焦硅谷高新技术的公众号,我们就不为你汇总苹果的新 iPhone 长什么样,有什么新功能了,相信你逛一下官网就能知晓。

但我为什么推荐你看这篇文章:在今天朋友圈成千上万条苹果新品发布会相关文章里,相信没有多少像这篇一样,能为你划出出本次发布会上的真正重点。

废话不多说,正文开始。

重点一:处理器

A12 Bionic 处理器驱动着最新一代 iPhone XS 和 XR,是苹果秋季新品发布会上的主角之一。

这场发布会上有一大半篇幅都是苹果对 A12 Bionic(以下简称 A12)的参数和能力大谈特谈。我甚至认为,这枚 SoC 对于苹果的重要性要高于 iPhone 本身。

这块芯片主要构成部分是 CPU、GPU 和一个神经网络协处理器 Neural Engine。CPU 为6核;GPU 为4核,性能比前代 A11 多了一半左右。

苹果全球营销高级副总裁菲利普·席勒(Phil Schiller)表示,A12 是全世界计算行业的第一块7纳米处理器。

这是一个足以令人震惊的表述。因为科技从业者可能知道,芯片工业的领头羊主要就是英特尔、英伟达、AMD 和高通等公司,而这些公司正在集体遇到天花板。

这个天花板就是摩尔定律。

摩尔定律来自英特尔的创办者,形容了计算工业的一个常态现象:因为工艺的提升,处理器每隔一段时间的性能也会提升,而成本会下降。

然而在过去的几年间,摩尔定律越来越难应验了。以英特尔为例,它的工艺革新速度变得愈发缓慢,在10纳米制程工艺上的进展缓慢,甚至导致其所依赖的技术演进模式崩盘。

与电脑相对的是移动 SoC。高通是这个领域的领导者,进展还不错,最新一代骁龙845处理器采用10纳米制程工艺,目前也有几款最新的手机搭载。然而高通遇到的问题是,性能提升和工艺进步之间的线性关系正在缓慢消退,这也是高通在新一代处理器上主要突出平台效应而非性能的原因。

而谁也没有想到,在英特尔和高通跟摩尔定律缠斗的同时,苹果突然用去年的 A11 和今年的 A12 在芯片工业狠狠地刷了一下存在感。

席勒透露,在采用7纳米制程工艺的 A12 处理器上,苹果(和它的代工商台积电一起)塞进了将近70亿颗晶体管,让 A12 成为了苹果乃至整个移动芯片工业史上最强大的手机处理器。

不过,可别忘了这家公司并不像高通那样以芯片公司自居。

A12 的 6 核处理器仍然采用自家的 Fusion 架构,分成 2 个高性能核心和 4 个低功耗核心,对前台高资源和后台待机任务进行分别处理,总体上实现了将近五成的功耗降低;4 核图形处理器较前代性能也有了很大提升。

不过苹果在芯片上的大杀器,在于 Neural Engine。

这是一块 FPGA(Field-Programmable Gate Array 现场可编程门阵列),一种自定义能力强适合定制化计算需求,在机器学习领域被广泛采用的集成电路。

和 A11 的双核相比,A12 的 Neural Engine 核数暴增到了8颗。它们存在是为了:

(1)在本地处理神经网络任务,比如图像识别、物体追踪、空间位置感应。

比如现场演示的篮球实时数据分析技术 Homecourt Shotscience,可以实时监测球员的位置、姿态,球出手时的高度、角度和时机等诸多信息。

(2)Neural Engine 的第二个重要任务是为 CPU 和 GPU,以及在两个单元的不同核心之间进行任务分配,实现更高效的任务处理,提高性能、降低功耗。

第二代 Neural Engine 的存在,不仅体现了苹果在芯片设计上的强大,更证明了一件事:为了在设备上实现甚至创造新的用户需求,让 iPhone 比前一代更加尽善尽美,苹果愿意深入到芯片的层面。

而这和新 iPhone 的第二个重点有关。

重点二:人工智能

整场发布会给我留下深刻印象的点并不多,其中之一就是前面提到的篮球实时数据分析应用 Homecourt。

科技从业者可能知道,人工智能是硬件和软件的结合。想要有好的效果,不仅要有高性能的计算硬件,也要有强大的算法和软件支持。

搭配苹果的 CoreML 深度学习框架,新一代 iPhone 每秒可以进行的神经网络计算超过5万亿次。这意味着在某些特定范畴内,最新一代 iPhone 已经超越了不久前业界顶尖的服务器超级计算机。

当很多神经网络级别的任务可以在本地计算,无需联网,最大的意义在于解锁了很多新的使用场景。比如发布会演示的新一代 iPhone 拍照的 Smart HDR 功能。

HDR 拍照就是在按下快门时,相机会拍下多张不同曝光的照片,将它们拼在一起,使得从高光到暗影的每一处细节都呈现更清晰。iPhone XS 和 XR 相机引入的 Smart HDR 功能,利用了这个逻辑,实现了更好的效果。

首先,按下快门时相机会自动拍下4张照片,利用 Neural Engine 结合 GPU 的计算能力选取最好的一张。苹果称其为零快门延时(Zero shutter lag)技术。

但过程并非如此简单,再按下快门时,相机不仅留下了4帧,还在另一个曝光级别上拍摄了它们的复制帧,以保留高光细节;以及另外一帧高曝光,从而留下暗处细节。此谓 HDR。

最后,Neural Engine 会再次选取照片中质量最高的几张,包括正片、高光、暗影,将其结合,从而实现 Smart HDR 效果:

最后得到的照片并不一定就和普通 HDR 或者 HDR+ 照片高下立判。但需要明确的是,这些功能并非过去的手机拍照处理器或者 ISP 可以实现的,而是需要 Neural Engine 和 CPU/GPU 配合。

你可以说苹果杀鸡用牛刀,但至少在拍照这件事上他们是认真的。

同样是在拍照上,新一代 iPhone 可以实现更好的背景虚化效果。前代 iPhone X 刚发布时很多用户发现人像模式效果并不好,原因在于并非双摄像头实现,而是单摄像头+计算机模拟背景虚化。

席勒表示,苹果相机工程师利用市面上顶级的相机和镜头所拍下的背景虚化效果,对 iPhone 相机、软件以及 A12 Neural Engine 进行训练,相信能够取得更好的背景虚化效果——尽管这次仍然是计算机模拟的。

另一个例子是现场演示的多人同屏——不对,同空间联机游戏。这是一款增强现实 3D 射击游戏,几个玩家各自操作手机,在同一个空间内射击目标,最后比较得分。

这款游戏利用了苹果的 ARKit 2 增强现实平台,结合 Neural Engine 驱动的图像识别和空间感知能力,至少发布会现场的效果令人叹服。

看完整场发布会,苹果在 iPhone XS/XR 上体现的人工智能软硬件能力,给我留下的印象并不是它们有多强,而是在于它们整合得多么紧密和自然。

因为究其根本,苹果也不是一家人工智能公司。它的业绩需要销售设备来支持。而设备给人带来的体验多完整,决定了设备的用户满意度有多高。

*文章为作者独立观点,不代表虎嗅网立场

本文由硅星人授权虎嗅网发表,并经虎嗅网编辑。转载此文章须经作者同意,并请附上出处(虎嗅网)及本页链接。原文链接:https://www.huxiu.com/article/262658.html

点击查看原文

相关链接