苹果很快就会让你用眼睛控制你的 iPhone 和 iPad
视频加载中...
周三,苹果在一份新闻稿中宣布,iPhone 和 iPad 即将推出多项令人兴奋的新辅助功能,包括眼动追踪。您很快就可以仅用眼睛来控制您的 iPhone 或 iPad,无需额外的硬件或应用程序。这还不是全部——苹果还推出了音乐触觉、声音快捷方式、车辆运动提示等等。
这些辅助功能更新距离 Apple 开发者大会WWDC 2024不到一个月 ,预计将在会上发布iOS 18和iPadOS 18。两者都可能是苹果迄今为止最雄心勃勃的操作系统更新之一,特别关注人工智能。周三公布的辅助功能更新包括几周后 WWDC 上可能发布的内容。
以下是 Apple 推出的新辅助功能以及如何使用它们。
Apple 宣布推出针对 iPhone 和 iPad 的眼动追踪控制
苹果周三宣布的最令人兴奋的辅助功能是对 iPhone 和 iPad 的原生眼动追踪支持。您很快就可以用眼睛控制所有 iOS 和 iPadOS,包括第三方应用程序。虽然任何人都可以使用眼动追踪,但它是为身体残疾或行动不便的人设计的。

Apple 宣布推出适用于 iPhone 和 iPad 的眼动追踪功能
iOS 和 iPadOS 中的眼动追踪使用设备上的机器学习来针对个人用户进行校准。这可能是 iPhone 和 iPad 即将推出的众多新人工智能功能中的第一个。由于它使用设备上的机器学习,因此您不必担心任何眼动追踪数据会传输到数据中心或云端。然而,其缺点是该功能仅适用于具有设备端人工智能处理能力的 iPhone 和 iPad,例如新款 iPad Pro M4。
音乐触觉、声音快捷方式和车辆运动控制提供生活质量更新

Apple 宣布 iOS 的新辅助功能
眼动追踪改变了 iPhone 和 iPad 上的辅助功能,但苹果并没有就此止步。它还发布了 Music Haptics、Siri 的声音快捷方式、Vehicle Motion Cues,以及 CarPlay 和 VisionOS 的一些辅助功能。
音乐触觉将允许有听力障碍的人通过触觉体验音乐。 Music Haptics 使用 iPhone 的 Taptic Engine,创建与音乐曲目相协调的敲击和振动,因此耳聋或听力有困难的人即使听不到音乐也能感受到音乐。 Music Haptics 将首先在 Apple Music 上提供,但苹果还发布了一个 API,允许第三方开发者在他们的应用程序上使用它,例如 Pandora 或 Spotify。
声音快捷方式是 iPhone 和 iPad 上的一项便捷新功能,可让您训练 Siri 使用自定义短语执行任务。您可以创建自己的操作和关键词组合,无需包含 Siri。例如,您可以训练 Siri 在您说“给我看新闻”时打开 Apple News 应用程序。
这一功能让人想起最近推出的一些人工智能助理设备,比如 Rabbit R1。如果苹果推出更多这样的功能,它很容易就会让专用的人工智能设备被淘汰。特别有趣的是,语音快捷方式与 Siri 相关。预计苹果将在 WWDC 2024 上宣布其虚拟助手的重大变化,因此我们很高兴看到语音快捷方式和其他新的人工智能功能如何随着新版本 Siri 的发展而发展。

苹果宣布为 VisionOS 推出实时字幕
车辆运动提示是一个更小众的辅助功能,但对于任何患有晕动病的人来说可能会派上用场。此功能使用 iPhone 或 iPad 屏幕边缘的移动点来告诉您的车辆正在向哪个方向移动。

车辆运动提示有助于减少晕动病(晕车)
晕动病通常是由于您的眼睛所看到的内容与您的身体正在经历的运动之间的脱节引起的。屏幕边缘的点的运动试图通过告诉您的眼睛您正在向哪个方向移动来修复这种脱节,从而有助于防止您在看屏幕时晕动病。

CarPlay 的更新包括声音识别功能,允许聋哑或听力有障碍的驾驶员或乘客打开警报,以收到警报器的通知。
说到汽车,Apple CarPlay 也进行了一个小但有用的更新,增加了语音控制功能。您现在可以使用口头命令来控制 CarPlay,从而无需将目光从道路上移开即可触摸汽车屏幕。 VisionOS 还获得了一项新的辅助功能:系统范围内的实时字幕。此功能可以显示 Vision Pro 上任何音频的字幕,包括 FaceTime 通话。
这些功能是苹果在 WWDC 2024 上即将推出的功能的一瞥。我们预计 iOS 18 和 iPadOS 18 中会有更多新的人工智能功能。苹果可能会在 WWDC 上推出这两个操作系统更新,但它倾向于向用户推出更新在秋天。因此,您可能需要等到 9 月才能尝试这些新的辅助功能以及 WWDC 上宣布的其他功能。