VisionPro不是iPhone
FastReading
(资料图)
■VisionPro还达不到iPhone的级别,但已是XR领域的新物种。
■苹果可能是布局AI最早、技术积累最多、应用范围最广的公司之一。
■先有领先的技术储备,再打造极致的产品,最终重新定义品类和行业——这是苹果一贯的打法。
特约作者丨镜宇cupl
本文仅代表作者本人观点
头显元年还没来
苹果史上最贵的产品VisionPro,发售首年的销量目标被砍掉95%。
6月8日,据韩国媒体PulseNews报道,苹果公司已将VisionPro的今年的销售目标下调至15万台。彭博社早前消息显示,苹果最初对VisionPro首年的销量目标是300万台。
这款似乎不被市场看好的新产品,拥有一次很典型的苹果式亮相。
后发制人,不是行业“首发”,却凭借更强的技术和产品能力,配合独特的交互设计、完备的生态体系,重新定义产品甚至行业。iPod、iPhone、AppleWatch、Mac,莫不如是。
在我看来,VisionPro不是更好的MetaQuest或PICO,而是基于空间交互的全新计算平台,XR领域的新物种。原因如下:
VisionPro是一个完全独立的计算平台,硬件由M2和R1芯片驱动,软件有VisionOS,虽然看起来不太像电脑,但它的性能足以吊打市面上绝大多数电脑。
在核心硬件和技术领域拥有绝对碾压的优势,在头显设备最核心的几个环节——图像采集、图像显示、空间感知,以及各种硬件堆料方面,都是遥遥领先。
没有配备手柄,完全依赖眼动追踪、语音、手势等全新的极简交互方式。
依托苹果生态的内容优势,包括数以万计的应用和AppleTV+等。
同时兼具了AR(AugmentedReality,增强现实)、VR(VirtualReality,虚拟现实)和MR(MixedReality,混合现实)的功能和形态,是截至目前XR(ExtendedReality,扩展现实)领域的集大成者。
以上任意一点,VisionPro都比同行表现出色,加在一起,说一句“新物种”不过分。
但今天的VisionPro,未必能成为当初的iPhone。
即便强如苹果,充分利用在产品、技术和生态上的绝对优势,在逼近现有技术极限的基础上打造出来的新物种,也没能解决这种头戴式设备最核心的问题——使用场景。
在已经有iPhone、iPad和Mac的情况下,为什么我们还需要一个独立的空间计算设备?
影音娱乐自然是首要场景,空间的延展确实能够带来完全不同的体验,演示视频里过半篇幅都是在介绍看电影的效果如何炸裂。苹果还邀请了迪士尼CEO鲍勃·伊格尔(BobIger)为发布会站台,全世界最大的内容平台之一配合VisionPro的沉浸式体验,想想都让人觉得兴奋。
不过,苹果只是想要造一台“空间版PlayStation”吗?当然不是!
苹果给出了一些很模糊的演示,比如在医疗领域可以用VisionPro更好地看到器官的构造,比如学习。但只是一闪而过,完全没有“言之凿凿”,反而更像是人为创造的“伪需求”,就像苹果一直硬拗iPadPro是生产力工具一样。
受限且单一的使用场景,加上3499美元起步的售价,注定了VisionPro还不足以开启头戴式计算设备的元年——它只是少数人的玩具。
相比之下,我更看好的是,随着技术持续进步,这套空间计算能力可以跳出VisionPro的产品形态限制,应用在更多设备和更广阔的领域。而作为当下载体的VisionPro本身,反而不那么重要了。
苹果保守了吗?
一些声音认为,苹果在这一轮AI竞赛上已然落后。VisionPro发布后,甚至有人发出批评:苹果点错了科技树,当大家都在玩AI时,库克却搞起了头盔,和整个科技界的浪潮背道而驰。
苹果在AIGC上保守了吗?
恰恰相反。苹果可能是这个星球上在AI领域布局最早、技术积累最多、产品应用范围最广的公司之一。
库克曾在接受采访时明确表示,他也在使用AI聊天机器人,并对其感到兴奋。他还透露,苹果正在密切关注这项技术,并有一些独特的应用场景。
事实上,苹果在很多年就开始了在AI领域的探索,甚至早于大部分人的想象。
2011年发布的iPhone4S上,已经搭载了当时令人惊艳的智能助手Siri,背后的核心驱动技术就是“NLP(自然语言处理)”,也就是今天ChatGPT等生成式人工智能的基础技术之一——让机器理解人们说话的意图。
周鸿祎在一次采访中称:NLP是人工智能皇冠上的明珠,谁参玩透了对语言的理解,谁就真正理解了这个世界,成为未来其它人工智能任务的底座。
随后十数年间,苹果以iPhone为核心载体,不断迭代在AI领域的硬件和软件能力。
在刚刚过去的WWDC2023上,我们能够看到苹果在“机器学习”这件事上挑战的全新高度。硬件领域,苹果已逐渐转移到M系列芯片,M2Ultra芯片可以负担大规模机器学习的性能需求,在某些场景和需求下甚至可以部分替代独立图形处理器。软件领域,新一代iOS、iPadOS、MacOS、WatchOS甚至VisionOS,都大规模地应用机器学习来提升用户体验。
比如,库克花了不少篇幅介绍的iOS17输入法改进,就是利用了Transformer语言模型,精准学习用户的输入习惯,预测输入内容,大幅提升输入正确性。类似的案例还有很多。
总之,苹果WWDC2023一句都没有提人工智能,但处处都是人工智能。
为什么外界会认为苹果在这波AI浪潮中显得非常保守和落后?原因可能是:
苹果是一家消费电子产品公司,虽然在产品背后大规模应用了机器学习相关的技术,但并没有专⻔发布一款以AI为核心的产品作为载体。
苹果的路径是:用领先的技术储备,打造出极致优雅的产品,重新定义品类和行业。而纵观AI技术领域,能够落地到消费电子上的产品形态还没有完全明确。
苹果不喜欢用“人工智能”的说法,而是倾向于使用“机器学习”这样更贴近技术、更中立的表达方式。
苹果一贯在交互体验和用户隐私方面有近乎变态的要求,现有AI产品还达不到。
综上,苹果在AIGC上不仅没有保守,反而有足够⻓期的投入和足够深度的技术积累,以及足够广泛的应用。不仅如此,苹果在AI潜在的落地领域也或多或少地有一些成熟产品了。
微软有Microsoft365Copilot,苹果有iWork三件套;特斯拉有FSD,苹果在自动驾驶领域也积累了很多年。
等待终极载体
苹果在AI领域的布局,我归纳为“处处不提AI,但处处落子AI”。在XR领域,或者说苹果所谓的“空间计算”领域,同样如此。
早在3DTouch时代,苹果就已探索在手机上实现更多维度交互的可能性。再后来,FaceID、激光雷达摄像头等看上去“平平无奇”的功能,被很多人吐槽根本用不到。但到今天,它们全部成为VisionPro的基石。
这很苹果。
信息技术产业的发展,本质是不断提升信息生产、消费和传递的效率。从更宏观的视角看,已经可以看到两个比较明显的命题:一是信息获取效率的极致,二是数字世界的边界。
在第一个命题上,苹果用iPhone牢牢占据了移动计算的平台。VisionPro则是苹果在第二个命题上,给出的答案雏形。这两个命题不是各自独立发展,而是相互交融,螺旋前进。
随着移动互联网式微,智能手机发展进入相对平稳时期,能带来创新性体验的产品越来越少,连外观都鲜有变化。各大巨头都在寻求新的计算平台,“空间计算”就是苹果开辟的全新战场。
但不得不说,这依然是一场库克时代的苹果式的豪赌。
过去,苹果每一次抓住重塑行业的新机会,几乎都是由乔布斯主导的,他以敏锐的洞察力和天才般的产品感觉,创造了一个又一个神话。今天的苹果似乎缺少灵魂人物,它还能复现乔布斯时代的“现实扭曲力”吗?没人知道。
但今天的苹果也早已脱胎换骨:数万亿美元的市值,数千亿美元的现金储备,以及多年的技术积累和远超乔布斯时代的资源投入。事实上,VisionPro的诞生,正是在技术上不计代价投入的产物。
对苹果而言,任何产品层面的竞争,背后都是生态的竞争。用户买的不是iPhone,而是承载苹果软件和内容服务的载体。苹果推出VisionPro,同样是出于长期生态竞争的考虑。
短期来看,苹果推出VisionPro是要吸引更多的开发者,为苹果开辟全新战场储备足够多的应用和服务,并不断进行技术验证和迭代,搭建一整套基于空间计算的生态框架。
因此,VisionPro更本质的意义在于,通过VisionPro这样的产品,不断拓展数字世界的边界,进一步将物理世界和数字世界做更好的融合,带来全新的交互体验。这才是苹果真正要做的——积累空间计算平台相关的技术和生态。
听上去是不是很熟悉?这和iPhone、iPad的思路是完全一样的,是一套得到过充分验证的打法。
长期来看,空间计算平台的核心技术,包括但不限于空间信息采集、空间信息呈现、空间感知能力,以及基于各种传感器的空间交互能力,很像自动驾驶需要的核心能力。
苹果一直讳莫如深的“苹果汽车”,或许才是空间计算落地的真正载体。
别忘了,苹果从来都是一家消费电子产品公司,所有的技术积累,最后都会变成产品提供给用户。未来10年,还有什么比汽车更性感的消费电子产品吗?
END
热门