本文来自微信公众号:硅星人 (ID:guixingren123),作者:Juny,编辑:VickyXiao,头图来自:视觉中国
昨天凌晨,在万众瞩目的苹果WWDC上,大家期盼了数年的苹果MR头显终于揭开了它的神秘面纱,瞬间引爆全球。用库克的话说,此次苹果Apple Vision Pro的革命性问世,标志着我们正式迈向空间计算时代,将开启个人化科技的全新征程。
(相关资料图)
Vision Pro非常酷,从铺天盖地的测评中,我们也看到了苹果在硬件、UI设计上的强大实力,瞄到了未来一代计算平台的可能,但激动之余,在这次整场发布会中,硅星人也在密切关注另一个重要议题——在当前滚滚的AI浪潮之下,苹果正在以及打算做什么?
而如果只是谈AI,这次的发布会可以说是一场大型失望中夹杂着一点希望的大会。有些期待的地方在于,虽然此次苹果只字未提AI这个词,但机器学习、Transformer模型等重要AI概念仍然不时出现,旗下的一众产品中也都更新了一些AI功能,除此之外,MR头显的推出或许还将打开苹果AI应用的全新想象空间。
不过,整场发布会没有推出一款基于生成式AI的自研产品,甚至隔壁微软都已经开始全系统层面启用AI助手了,苹果这次还在玩语音转文字、键盘自动纠错填充这些老游戏——这难免让人有些失望。别忘了,当初可是苹果的Siri开启了语音助手的时代。但在如今ChatGPT席卷全球的情况下,苹果的Siri只是少了个“Hey”?
至少从今年的WWDC来看,苹果在AI上努力了一下,但不多。
WWDC上,这次苹果揭晓了哪些AI更新?
跟5月刚刚落幕的谷歌IO和微软的Build几乎都围绕着AI展开不同,此次苹果的开发者大会的AI更像是彩蛋般的存在,埋在硬件和软件的更新里。虽然带来一些产品上的优化,却没有让人眼前一亮的存在。
首先在硬件层面,全新发布的M2 Ultra 芯片通过将两块 M2 Max 芯片结合在一起,最高可实现 192GB 的统一内存,比 M1 Ultra 多 50%,从而能够流畅支持大模型的运算,完成其他芯片无法完成的任务。比如,苹果表示M2 Ultra相比其他PC设备可以在支持 Transformer 大模型运行上优势明显。
除了芯片,AirPods也悄悄引入了一些AI支撑下的新功能。比如,现在AirPods已经具备了“自适应音频”的能力,能够根据你所处的环境或记住你不同时段的偏好来自动调节媒体播放音量,让你能够专注于内容或与人交流,这背后则是来自于机器学习技术的支持。
此外,伴随着操作系统的升级,一些实用的AI小功能也开始提供给苹果用户。但老实说,并没有什么亮点,都给人一种似曾相识的感觉。
首先iOS 17此次新增了一个名为Journal的新原生应用程序,类似于此前Memory的升级版。基于机器学习技术,iPhone现在能够智能化地标记和记录用户生活中的重大事件或有趣瞬间,并自动为照片、音乐、录音等的任何条目添加详细信息来方便用户回溯。
此外推出了Live Voicemail(实况语音信箱),无论是语音留言还是他人的iMessage语音留言,现在都能支持实时语音转文字。但这个功能对于广大中国用户来说太熟悉不过了,毕竟微信用户多年以前就开始使用这个功能,不久前OpenAI也开源了旗下音频转文字模型Whisper,能够准确识别98种语言。此次苹果并没有明确该功能是用什么模型开发的,只是表示是基于强大的神经网络引擎所开发。
iPhone的自带键盘现在拥有了自动预测单词推荐和纠正的功能。但这也跟Gmail多年前推出的自动补全功能如出一辙,此次基于的模型也是谷歌家的Transformer。苹果表示,现在我们每按下一个键,iPhone就会在苹果芯片强大的运算力下运行一次 Transformer 语言模型。
当然,还有把AI语音助手唤醒指令从Hey Siri改成Siri的“重大更新”,被广大网友们一顿调侃。网友们都说,人家ChatGPT 现在都能写代码、解高数了,结果Siri就只是少了个Hey,甚至还感觉这样唤醒就还挺没礼貌的。
图片来自微博
闭口不谈AI,苹果不想追潮流
总体来看,相较于此次应接不暇的新硬件和新系统,在此次WWDC上苹果AI相关的功能更新可以说是少得有些可怜。
要知道,过去几个月,整个科技界似乎已经被AI淹没。微软、谷歌、Meta、亚马逊等巨头纷纷激情下水搞大模型,恨不得水花搞得越大越好。但到了苹果这边,却好像始终都对AI保持着一种若即若离的高冷态度,以至于很多人都觉得苹果是不是已经选择守好自己的一亩三分地,默默退出了AI竞赛。
网友恶搞图 来自Twitter
AI的出现,可以说打破了科技巨头们这些年来长期保持的井水不犯河水的状态。比如微软自从有了OpenAI的加持之后就开启了攻城略地的模式,疯狂在谷歌和苹果的业务边缘试探。先是在搜索上用ChatGPT来狂拉用户,几周前宣布Windows系统全面集成AI的做法更是直接想把用户拉入了下一个操作交互的时代,让人不禁也想要为苹果捏一把汗。
在微软的猛烈进攻下,谷歌早早地拉响了“红色警报”,本以为这次WWDC苹果也会对微软的“激进策略”在操作系统上有所应对,但没想到苹果依旧闲庭信步完全按照自己的节奏来。
网友们锐评,苹果这就是典型的家有余粮、心里不慌。稳坐着全球消费硬件老大的位置,并不忙着去追赶当前的AI潮流。此次就算发布了一些AI功能,也几乎都是小打小闹一下,并且神秘感十足尽量避开AI,连介绍MR头显的技术时,也就只是略微提了一下使用了“神经网络”技术。
淡定的苹果,要走自己的AI路?
但苹果是不是真的不搞AI了呢?从这次大会和最近苹果的动向中所透露出的种种端倪来看,感觉也并非如此。苹果在搞、也要搞AI,只是走的不是OpenAI和谷歌等大家正在“卷”的路。
首先,苹果似乎想要把AI模型放在本地设备上进行而非云端。除了是此次发布的支持大型模型运行的M2 Ultra芯片之外,此次更新的基于iPhone的语音转文字、自动更正补全和Journal功能都透露出了这样的信号。
选择在设备上进行训练有一些好处,比如节省大量成本能够最大化地保护用户隐私等,但同时可能由于数据量不足导致失去准确性、技术迭代慢等。要知道,对于AI来说,海量的数据就是血液。但苹果选择这样的路径也有迫不得已之处,封闭的苹果生态和严格的隐私政策成为了苹果发展AI的枷锁,长期以来苹果的云中心规模都远远落后于微软、谷歌和亚马逊,甚至跟Meta比都完全不占优势。
这些客观原因也让苹果不得不先在自研芯片和设备上下功夫,不断尝试做出一些小而美的东西。
而如果你留意的话,你可能会发现过去这些年来苹果其实一直在持续发布AI相关的功能。比如照相里的live和图像自定义编辑、不断完善的FaceID,Apple Pencil的各种笔触功能等,这些背后都离不开人工智能技术的支持。但如果细分到当前大热的生成式AI,苹果目前确实不占优势,所以只能选择另辟蹊径。
目前,除了在设备端上下功夫之外,苹果也在尝试拓展AI的新场景。比如此次引爆全球市场的全新Vision Pro头显,就或许正在成为苹果进行生成式AI技术应用的新目的地。
在苹果最近刚发布的招聘启事中我们可以看到,苹果正在为AR/VR团队大力招募生成式AI相关的开发人才,并要求求职者要具备prompt engineering的能力。这背后可能也透露出苹果想要通过AI来对MR设备的交互进行设计的信号。
图片来自苹果招聘官网
纵观最近苹果的种种表现,它仿佛在告诉大家,关于AI,我们心里还是有数的,大家先吃点开胃菜,谁知道后面有什么大菜呢?
但在当前日日更迭、无比激烈的AI竞争环境下,苹果究竟能不能“佛系”地抢得一席之地,可能还真要看竞争对手们的动作究竟有多快了。
本文来自微信公众号:硅星人 (ID:guixingren123),作者:Juny,编辑:VickyXiao
关键词: