通过将社会阶层特征传输到人工智能中,语言服务将得到改善,从而带来社会不平等(根据谁来做这项工作,不平等程度会加剧或减轻)。这种理解引发了哈佛医学院生物医学信息学助理 Lawrence Weru 提出的一个紧迫问题:如果我们研究的目标领域恰好关注歧视的形式,涉及不同的群体,而我们反过来将这种带有偏见的算法引入决策过程,那么 N 世代将如何考虑和解决这一问题?

人工智能发展需要多样性

如果我们将注意力转向搜索引擎对 AI 的探索和应用,这些问题本身是否令人费解?那么,至关重要的是,公交车司机要小心谨慎。在大多数情况下,问题只有当问题尚未解决时才会被人们注意到并引起足够的关注。无障碍的重要性以及它所包含的内容令人难以理解。此外,它为 AI 提供了如此积极的目的,使人们能够安然生活。我们正在与其他科技公司合作,并将在电信方面增加一些这方面的分量。

微软的免费 iPhone 应用程序 AI Seeing 就是一个例子,它可讲述环境、阅读文档并执行其他基本任务,即使视力受损。该应用程序具有文本转语音功能,可作为口语阅读辅助工具;因此,可以避免音频格式的书面文本无法理解。Voiceitt 是另一种创新的辅助设备,它使那些无法说话的人在短时间内说话。该大学通过与 Voiceitt 通信应用程序和 Webex 技术的合作,特别帮助专业和困难员工流利地说话。此外,他们在表演期间的产出(通常是口头交流)被翻译并配上字幕,使聋哑人士可以参加会议。

人工智能的另一个好处是,开发设计师可以为界面创建算法,根据每个用户的视觉、听觉或运动能力等,独立、动态地响应他们的需求。尽管有许多发现和解决方案,但残疾人仍然无法获得成功所需的服务。

通过包容性人工智能促进无障碍

因此,重点转向推动劳动力的积极变化,重点关注参与人工智能开发的公司的高管层。AI Equity Lab 强调,“在制定人工智能系统时,每个人的身份都至关重要,这意味着它不应该被设计成让黑人和其他少数群体过时。人工智能可以被设计成创造一种环境,让人们可以彻底讨论以前的事件,并探索受影响群体(包括少数群体或代表性不足的群体)的经济现实。”

这句话本质上表明了人工智能设计团队掌握着权力,决定如何使用这项技术以及用于什么目的。这可以通过确保所有团队成员都来自不同的背景,特别是少数族裔,并选择那些来自以前处于弱势群体的人来参与来实现。这种责任要求我们大大增加成功设计人工智能的机会,这种人工智能既能关注复杂问题,又能平衡地对待世界上少数群体的经历。

在开发阶段解决人工智能系统中的偏见问题将带来相当好的结果,因为那时偏见很容易修复,而不是等到后期才解决,因为那样会造成无法估量的损失。因此,人工智能的开发者必须是一群来自不同背景的人,并且应该不断检查人工智能的使用范围;因此,应该始终积极观察人工智能系统。在这些条件下,偏见应该让任何技术的消费者意识到不要禁止使用这样的小玩意。

总而言之,全球人工智能自主监督团队的核心是可及性、包容性和应用是优先事项。歧视或有偏见的技术是一个问题,它揭示了人工智能系统的真实过去,当我们看到系统被误认为女性和男性、老年人和年轻人、白人和非洲裔美国人时,这些问题就暴露无遗了。技术界在人工智能发展中扮演的角色应该考虑代表性不足的群体的观点和经验,后者代表了普通高管和设计过程中用户的声音;最终,结果将是与那些人工智能应用将对社会产生重大利益的人进行急需的合作。