Apple推出视觉、声音和触觉辅助功能

发布时间:2024-05-26浏览次数:68

为克服用户残疾并增强个人体验,苹果跨越多个平台和专用操作系统,继续提供宝贵的无障碍功能。该公司宣布将于2024年晚些时候推出新的无障碍功能,包括新视觉、声音和触觉选项。这项功能利用了苹果的硬件和软件、苹果硅、人工智能和机器学习的能力。 在新的无障碍功能中,苹果展示了眼动追踪,这是一种身体残疾用户用眼睛控制iPadiPhone的方式。此外,音乐触觉将为聋人或听力损失严重的用户提供一种在iPhone中使用Taptic引擎体验音乐的新方式;Vocal Shortcuts将允许用户通过发出自定义声音来执行任务;当在移动的车辆中使用iPhoneiPad时,车辆运动提示可以帮助减少晕动病;苹果最新的Vision Pro增强现实平台的操作系统visionOS将提供更多的无障碍功能。

音乐触觉是聋人或听力严重损失用户在iPhone上体验音乐的一种新方式。打开这一辅助功能后,iPhone中的Taptic Engine可以播放音乐音频的敲击、纹理和精细振动。Music Haptics将在Apple Music目录中的数百万首歌曲中发布,并将作为API提供给开发者,让他们的应用程序更容易访问音乐。

通过语音快捷方式,iPhoneiPad用户可以分配Siri能够理解的自定义话语,以启动快捷方式并完成复杂任务。另一项新功能“听非典型语音”,可以增强更广泛语音的语音识别。听非典型语音使用设备上的机器学习来识别用户的语音模式。这些功能是为患有影响言语的后天或渐进性疾病的用户设计的,如脑瘫、肌萎缩侧索硬化症(ALS)或中风,在iOS 17中引入的功能的基础上,为没有语言能力或有丧失语言能力风险的用户提供了新的定制和控制水平。

伊利诺伊大学厄巴纳-香槟分校贝克曼高级科学与技术研究所的语音无障碍项目首席研究员Mark Hasegawa Johnson表示:“人工智能有可能改善数百万非典型语音患者的语音识别,因此我们很高兴苹果公司将这些新的无障碍功能带给消费者。”


来源www.apple.com