谷歌最近解雇了一位资深AI研发人员,仅仅因为该员工批评了公司。Timnit Gebru是该领域的先驱,并对大型语言模型中的风险和不平等进行了研究。
Gebru声称,她仅仅因一篇未发表的文章而被谷歌解雇,她还发了一封邮件批评该公司的做法。
早期时候,她与她的团队在一场研究会议上提交了一篇名为《On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?》的论文,这篇论文质疑语言模型是否会太大,谁会从中受益,以及它们是否会增加偏见和不平等。最近的一些案例大体上证实了她关于大型模型和数据集的说法。
例如,麻省理工学院今年早些时候被迫删除了一个名为8000万小图像的大型数据集。该数据集在训练AI方面很流行,但被发现包含带有种族主义、厌恶女性和其他不可接受的标签的图像。
麻省理工学院网站上的一份声明称,他们并不知道这些冒犯性的标签,它们是“使用来自WordNet的名词进行自动数据收集的结果”。该声明还解释了数据集中包含的8000万张图片——大小只有32×32像素——意味着手工检查几乎是不可能的,也不能保证所有冒犯性的图片都会被删除。
据报道,Gebru给谷歌大脑女性和盟友的成员发送了一封“与谷歌经理的期望不符”的邮件。
在电子邮件中,格布鲁对谷歌在招聘女性员工方面明显缺乏进展表示失望。Gebru称,她还被告知不要发表一份研究报告,并建议员工停止填写多元化文件,因为这无关紧要。
除了她被解雇的可疑原因之外,格布鲁说她的前同事收到电子邮件说她提出辞职——但她声称事实并非如此:
显然,我经理的经理给我的直接汇报发了一封邮件,说她接受了我的辞职。我并没有辞职——我只是要求了一些简单的条件,并说我会在度假回来后回复。但是我猜她已经擅自主张做了决定,这是我的律师说说的。
- Timnit Gebru (@timnitGebru) 2020年12月3日
平台前获得了一封来自谷歌研究部门负责人Jeff Dean的电子邮件,邮件发给了员工,并提出了他对Gebru说法的看法:
“我们已经批准了几十篇提姆尼特和/或其他谷歌人撰写并发表的论文,但正如你所知,论文通常需要在内部审查过程中进行修改(或者甚至被认为不适合提交)。”不幸的是,这篇特别的论文只在截止日期前一天被告知——我们需要两周的时间进行这种审查——然后它没有等待审稿人的反馈,而是被批准提交并提交。
随后,一个跨职能团队对这篇论文进行了审查,并将其作为我们常规流程的一部分。作者被告知,这篇论文没有达到我们要求发表的标准,并得到了关于原因的反馈。它忽略了太多相关的研究——例如,它谈论了大型模型对环境的影响,但却忽视了随后显示出更高效率的研究。同样,它提出了对语言模型偏见的担忧,但没有考虑到最近的研究来缓解这些问题。”
Dean继续声称Gebru提出了要求,包括披露他和工程谷歌研究副总裁Megan Kacholia作为论文综述的一部分所咨询的个人的身份。据报道,格布鲁表示,如果这些要求得不到满足,她将离开这家公司。
这是一种口诛笔伐,但对于一个已经因可疑行为而受到公众和监管机构关注的公司来说,被人看到解雇一名指出问题的道德研究人员,并不是一种良好的公关。