Apple 宣布了iOS 17和iPadOS 17的一系列辅助功能,该公司表示此举将对残疾和残障 iPhone 用户的生活产生积极影响。该公告是在第 12 届年度全球无障碍意识日前几天发布的,该日定于 5 月 18 日星期四举行。
最显着的新功能之一是 Assistive Access,专为有认知障碍的人设计。Apple 表示,该功能是根据“有认知障碍的人及其信任的支持者”的反馈而设计的,它简化了 iOS 和 iPadOS 界面,使人们更容易与亲人交谈、分享照片和听音乐。作为新功能的一部分,Phone 和 FaceTime 应用程序合并为一个 Calls 应用程序。该功能还包括高对比度按钮和大文本标签,所有这些都是可配置的,以更好地为有可访问性需求的人服务。
Apple 还通过其 Live Speech 功能让非语言人士更容易交流,该功能让人们可以键入他们想说的话,并在通话、FaceTime 聊天和面对面交谈时大声朗读。该功能还允许人们保存一些常用的单词和短语,以便在与朋友和家人交谈时使用。
另一个新功能是 Personal Voice,它针对的是那些因肌萎缩侧索硬化等疾病而有可能失去说话能力的人。该功能使用机器学习为每个用户生成独特的个人声音。要创建个人语音,用户必须对着 iPhone 或 iPad 的麦克风朗读一些单词和短语大约十五分钟。它与 Live Speech 集成,让他们在与亲人交谈时使用自己的声音。Personal Voice 将仅提供英语版本,并且仅在采用 Apple 芯片的设备上受支持。
另一个新功能是 Point and Speak,它使用 iPhone 的摄像头和 LiDAR 扫描仪让视障人士能够与具有多个文本标签的物理对象进行交互。例如,Apple 表示,该功能可以让有视力障碍的用户更轻松地更好地操作微波炉等家用设备,因为当用户将手指移到键盘上时,它可以大声朗读每个按钮上的文字。发布时,Point and Speak 将支持英语、法语、意大利语、德语、西班牙语、葡萄牙语、中文、粤语、韩语、日语和乌克兰语。