WWDC 2023 落幕,整场发布会最吸睛的当属 Vision Pro。用 Tim Cook 的话说,这标志着我们正式迈向空间计算时代。(Apple Vision Pro will introduce us to spatial computing.)

在全世界的科技公司争先恐后入场大模型、Google 和微软神仙打架的时候,苹果却只字未提「AI」「GPT」等高频热词。

苹果低调地使用了「机器学习」(Machine Learning) 这个术语,而且还重复了 7 次之多,足见其对于 AI 多少还是有点野心。机器学习,意味着计算机系统能够从自身的经验中学习和改进。

另一方面,苹果对于机器学习技术的提及,都是围绕着具体的场景和应用进行的:将机器学习模型搭载到了手机、平板、耳机、手表、眼镜等多个终端上,如何具体而微地改进了用户体验。

WWDC 23 的 AI 时刻

整场发布会有 2 个小时。(为了快速总结要点,我决定使用此前介绍过的 AI 阅读工具 提高效率。我先用 BibiGPT 将发布会 YT 视频转录为了文字稿,再借助 ChatDOC 快速获得关键信息。)

在此,也将 WWDC 23 录音稿 的地址放上,大家如果有其他想了解的内容,也可以直接点进去提问,同时方便回溯一手信息。

iPhone

输入法自动纠正(Autocorrect): iPhone 输入法更精确了,能自动找出更多的语法错误,还能学习你个人的使用习惯。这得益于苹果对设备端 Transformer 模型的优化。借助苹果芯片强大的算力支撑,iPhone可以在我们每次按键时运行这个模型。

Journal:Journal 是一款全新 app,可利用设备端机器学习技术,根据用户近期活动,智能记录生活瞬间,包括照片、人物、地点、体能训练等等。它还可以自动为照片、音乐、录音等条目添加详细信息,方便日后回溯。

iPad

唤醒动画:苹果称,其机器学习模型能够合成额外的帧,每当我们唤醒 iPad 时,都能欣赏到华丽流畅的慢动作效果。同时,我们可以选择太阳系的任何一颗行星作为壁纸动画,每一颗都充满了惊人的细节。

PDF 处理:iPad OS 利用机器学习模型识别 PDF 中的字段,用户可以快速用通讯录中的姓名、地址和电子邮件来填写相关信息。

AirPods

个性化音量:现在,AirPods Pro 可以通过机器学习了解用户的环境条件和聆听偏好,随着时间推移,自动对多媒体体验进行精细调整。此外,它还具备对话感知到能力。当你戴着 AirPods Pro与身边人对话时,它会自动降低你的音乐,专注于你前方的声音,并减少背景噪声。

iWatch

Smart Stack 智能叠放:Apple Watch 将更懂你的需求,优先展示更具时效性、你此刻更需要的信息。比如今日天气预报、新闻头条、即将到来的会议、需要完成的任务、需要服用的药物等等。

Vision Pro

Persona 数字化身:利用机器学习技术和Vision Pro的传感器,系统将使用一个先进的「编码器-解码器」神经网络来创建你的数字化身。经过多样化的数千个个体数据训练,Persona 可以动态地匹配你的面部和手部的运动。你可以用你的化身,超过十亿个FaceTime能力的设备进行通信。当被另一个佩戴Vision Pro的人观看时,你的化身将具有远超过传统视频中的体积和深度。

芯片

值得关注的是,苹果此次还发布了 M2 Ultra 芯片。它具有多达 24 个 CPU 内核、76 个 GPU 内核、32 个内核的神经引擎和192GB统一内存,每秒可进行 31.6 万亿次运算。这意味着,它可以支持极大的机器学习工作负载,包括训练大型 Transformer 模型。

苹果的 AI 价值观

以上,我们不难看出苹果对于 AI 的价值观:

  1. 极度尊重隐私。尽可能将模型搭载到设备端运行,尤其是涉及到跟用户隐私相关的数据。
  2. 强调 AI 的实用性。手表上优先展示你需要的信息、耳机能够自动调节音量大小,看似很微小的功能,却极大程度上提升了用户体验,减少了操作成本,让电子设备更无感地服务于我们的生活。
  3. 追求艺术与美。iPad 的唤醒动画愈发丝滑,甚至超越了影视级的效果,在生活的点滴里基于用户美好的体验。

毕竟,科技的进步是为了让人类拥有更好的生活。Respect。

1
0