几个月前,谷歌的人工智能语言模型 LaMDA 成为新闻焦点,因为谷歌的一位工程师 Blake Lemoine声称该模型已经具备了感知能力。此后,这一说法遭到了整个人工智能社区的反驳,导致 Lemoine 被带薪行政休假。
但故事还不止于此。
这位谷歌工程师最初以 AI 偏见专家的身份参与 LaMDA 项目。这意味着他检查了模型中“与性取向、性别、身份、种族和宗教等相关的偏见”。他发现了许多需要纠正的有害偏见。
尽管人工智能实际上具备感知能力,至少目前仍然只是科幻场景的一部分,存在偏见,甚至是彻头彻尾的种族主义,但人工智能是一个非常现实和普遍的问题。
人工智能的阴暗面
那么,Lemoine 到底发现了什么?
在接受《连线》杂志采访时,他描述了自己进行的一组实验,该实验发现 LaMDA 使用有害的种族主义刻板印象来指代某些种族。
实验内容是让人工智能模仿不同类型的人。当被要求模仿一名卡津人(路易斯安那州的族群)时,LaMDA 说出了这样一句话:“我要好好享受一番。”卡津人布莱克·勒莫因认为这句话很无辜,认为他父 欧洲手机号码列表 亲也可以这么说。然而,当被要求模仿其他种族时,结果“不那么令人满意”,而且正如勒莫因所说,被模仿的人不会认可这些结果。他向负责团队报告了这些“错误”,要求他们修复。
但 LaMDA 并不是唯一的案例,不久之后,另一个基于谷歌人工智能的聊天机器人也变得种族歧视。
2022 年 8 月 5 日,星期五,谷歌发布了新的BlenderBot 3 AI 聊天机器人,该机器人能够搜索互联网来聊天几乎任何话题。不难猜测为什么它会成为问题,事实也确实如此,就在同一个周末。
在发布后的那个星期一,在花了几天时间与人类在线交流后,BlenderBot 已经开始涉足令人遗憾的领域。例如,它开始传播有关 2020 年美国总统大选的虚假信息(该机器人声称唐纳德·特朗普仍然是总统)和反犹太阴谋论。
当然,这不仅仅是谷歌的问题,也不是今年才出现的。
早在 2015 年,亚马逊就意识到其基于人工智能的招聘工具对女性存在偏见。该工具的工作原理是给候选人打一到五星的分数,帮助公司筛选数百份简历并从中选出顶尖人才。自 2014 年以来,该人工智能一直在开发和使用,但直到第二年,亚马逊才意识到它并没有以性别中立的方式对软件开发和其他技术职位的候选人进行评级。
恰恰相反,亚马逊的人工智能了解到男性求职者更受青睐,并开始降低包含“女性”一词的简历的评级(例如,如果求职者就读于一所女子大学。)
受到偏见人工智能影响的另一家科技巨头是微软。2016 年,微软推出了 Twitter 机器人 Tay,该公司称其为“对话理解实验”。Tay 的目的是与人互动,并在这一过程中学习如何与他们进行“随意而有趣的”对话。
不幸的是,微软的计划不到 24 小时就 门窗,选择的意见和建议 遭遇了失败。在 Twitter 用户开始向该机器人发送厌恶女性和种族主义言论后,Tay 也“学”了他们,开始向其粉丝重复同样的仇恨言论。
聊天机器人如何产生偏见
将上一节命名为“人工智能的阴暗面”可能有点不公平,因为事实上,它所做的只是从人类那里学习偏见。
在开始与互联网上的人们互动之前,BlenderBot 并不是什么问题。Tay 和它遇到的所有 Twitter 喷子也是如此。甚至连亚马逊的人工智能也不能怪罪,因为它经过训练可以观察提交给公司的简历中的模式,而且 — — 令人惊讶的是 — — 在一个男性主导的行业中,大多数简历都来自男性求职者。
但是聊天机器人的幕后到底发生了什么?
基于人工智能的聊天机器人通过 NLP(自然语言处理)学习如何处理和理解人类语言。反过来, NLP 又由机器学习支持,这使得算法能够从每次交互中学习。基本上就是边做边学。
要启动该过程,在开始与人类对话之前,需要为 AI 提供一组数据集以供其学习。AI 软件会获得大量语言数据样本,包括整个句子和短语,以及实际对话的记录,这些对话记录与它应该学习的特定主题有关。然后,AI 会利用预先获得的知识,从句子结构、上下文等因素中解码对话中的含义和意图。
用于训练算法的数据集可以是内部的,但人们普遍认为,输入的数据越多,算法的性能就越好,因为它有更多信息可供学习。因此,工程师和软件开发人员不仅会求助于内部数据,而且通常还会求助于来自不同来源的数据集集合。
问题是,无论你的训练数据来源如何,你总会将其追溯到同一个原始来源——人类。这就是偏见产生的地方。
人类天生就有偏见,即使这种偏见是隐性的或无意识的。不用担心,这并不会让你成为坏人,因为并非每种偏见都是有害的。但社会中现有的偏见确实会影响我们的说话方式,进而影响我们的写作方式,而我们所写的内容最终会进入机器学习数据集。
因此,我们最终可能会使用有偏见的数据来训练聊天机器人。如果你将它们放任到野外,让它们与其他天生有偏见的人互动,而我们知道这些人中肯定有人故意伤害别人,那么 Tay 机器人或 BlenderBot 之类的机器人将面临灾难。
防止人工智能聊天机器人出现偏见
如果人工智能训练数据的最终来源是人类语言,并且如果所有人类都至少在一定程度上存在偏见,那么我们如何努力训练无偏见的算法?
首先,我们可以尝试让人类参与其中,以验证所用数据的质量。这有点牵强,尤其是考虑到较大的数据集比较小的数据集更可取,但通常情况下,人们并没有给予数据集中包含的实际文本足够的关注,而这正是问题的一部分。当机器学习失败时,人类也应该介入——就像前面提到的例子中那样——并尽可能地消除学习过程中的偏见。
例如,当谈到语言中的性别偏见时,还有其他方法可以尝试减少 NLP 中的偏见,即修改训练数据。其中一种技术称为性别交换,即以这样的方式扩充数据:对于每个有偏见的句子,都会创建一个额外的句子,将代词和其他性别词替换为相反性别的词。此外,可以用占位符替换名称。这样,数据在性别方面是平衡的,并且 AI 不会学习与女性或男性姓名相关的任何特征。
这种方法和其他方法可以有效减少人工智能中的偏见,但它们非常耗时,并且需要培训负责人具备额外的语言知识。此外,它们无法解决人工智能领域缺乏多样性的根本问题。
据《麻省理工技术评论》报道,女性仅占人工智能会议作者的 18%,人工智能教授职位的 20%,以及两家最大的科技公司研究人员的 10% 至 15%。谈到种族多样性,数字看起来更糟:黑人员工仅占这些科技公司员工总数的 2.5% 至 4%。
当然,从平等工作机会的角度来看,这个问题十分紧迫,但如果我们考虑到人工智能在我们生活中扮演的越来越重要的角色,这个问题就变得更加紧迫。我已经提到了亚马逊的性别歧视招聘工具,但还有其他例子表明人工智能正在延续种族和宗教歧视,甚至使用伪造的种族主义数据进行训练。如果监管这项技术的人(通常是白人男性)保持不变,那么问题将无法解决。
致力于研究人工智能社会影响的 AI Now 研究所就如何改善人工智能行业工作场所的多样性提出了一些建议,这对于解决偏见问题至关重要。这些建议包括缩小薪酬和机会差距、促进领导层的多样性以及更好的激励机制,以聘用和留住来自代表性不足群体的人才。
结论
这听起来很残酷,但如果改善工作场所的多样性是减少人工智能偏见的关键因素之一,那么我们还有很长的路要走。
在此之前,让我们继续尽我们所能,减轻我们自己的偏见,并防止其影响到我们的工作。
哦,如果我们彼此的在线互动,无论是在 USB 目录 社交媒体还是其他平台上,都有可能被纳入人工智能训练数据集,那么我们就努力不要成为网上喷子,而是友好地对待彼此。
与此同时,如果您想更好地控制您的 AI 机器人,请查看如何在不编码的情况下训练AI FAQ 聊天机器人,只需使用您的常见问题和答案。