苹果WWDC将于下月登场,预计将会发布iOS 17,目前许多新功能也相继传出。苹果官方目前已经抢先发布部分新功能,这些新功能主要是针对“辅助功能”进行更新,包含“Assistive Acess”、“Personal Voice”、“Point and Speak”。
苹果表示今年稍晚,认知功能障碍的使用者将可透过“Assistive Acess”功能更轻松、独立地使用 iPhone 和 iPad。而喑哑人士将能在通话和对话时,以“Live Speech”将打字化为语音。
失去言语能力的使用者,则可以利用“Personal Voice”功能打造与他们声音类似的合成语音,从而与亲朋好友连结。
针对失明或低视能的使用者,“放大镜”中的“侦测模式”带来“Point and Speak”功能,可辨识使用者所指向的文字并进行朗诵,从而协助他们与家电等实体物品进行互动。
“Assistive Access”包含专为电话和 FaceTime 打造的自订体验,两者被整合成了单一“通话”app,以及客制化的“讯息”、“相机”、“照片”和“音乐”等体验。这项功能提供不同于一般,拥有高对比按键和大型文字标签的介面,以及可协助被信任的照顾者为他们所支持的身心障碍者量身打造使用体验的工具。
举例而言,针对较喜欢以视觉进行沟通的使用者,“讯息”纳入一款只有表情符号的键盘,并提供录制影片讯息并与亲朋好友分享的选项。使用者与他们所信任的照顾者也可以为“主画面”和 app 选择更视觉化,以网格为基础的布局,或者,偏好文字的使用者则可以选择基于栏位的布局。
另外,有了 iPhone、iPad 和 Mac 上的“Live Speech”功能,使用者将可以透过打字写下他们所想要说的话,并让装置在电话或 FaceTime 通话,以及现场对话进行期间朗诵这些文字。使用者也可以将常用语句储存起来,轻敲一下就可在与亲朋好友和同事的即时对话中快速套用。“Live Speech”专为支援全球数以百万计喑哑人士或逐渐丧失言语能力的使用者而打造。
针对可能失去言语能力的使用者,如罹患肌萎缩性脊髓侧索硬化症 (ALS) 或其他会逐渐侵蚀说话能力的疾病之人,“Personal Voice”是个简单而安全的方式,让他们得以创造与自己声音相似的语音。
使用者可以透过读出一系列随机文本提示,在 iPhone 或 iPad 上录制 15 分钟的音讯,以创造出一个“Personal Voice”。这项语音辅助使用功能利用装置端机器学习,确保使用者的资讯私密而安全,并与“Live Speech”流畅整合,让使用者能在与亲朋好友连结时使用自己的“Personal Voice”。
此外,“放大镜”中的“Point and Speak”功能让视觉障碍使用者可以更轻易地与拥有数个文字标签的实际物体互动。举例来说,使用微波炉等家电时,“Point and Speak”会结合“相机”app 和光学雷达扫瞄仪的输入,以及装置端机器学习,从而于使用者手指在数字键盘上移动时,根据其位置朗诵出按键上的文字。
“Point and Speak”内建于 iPhone 和 iPad 上的“放大镜”app,适合与“旁白”共同使用,并可结合“人物侦测”、“门侦测”和“图片描述”等其他“放大镜”功能使用,引导使用者掌握周遭环境。
苹果之所以会提早宣布iOS 17内的辅助使用功能,有一部分的原因也是因为今年的5月18日是“全球无障碍体认日”。而除了发布iOS 17新一波的辅助使用功能,Apple也预计在本周推出更多的服务,包含了:SignTime 服务将正式延伸到德国、意大利、西班牙和韩国,为这些地区的Apple Store 和Apple支援的顾客提供手语口译机。此服务已经在美国、加拿大、英国、法国和日本等地为顾客所使用。