麻省理工学院因为开发了一款有歧视女性和种族主义倾向的人工智能模型的软件向公众道歉,并将其下线。
这个软件叫做8000万小图像,创建于2008年,该软件是一个庞大的图片集合,根据图片的特征分别进行标记。
机器学习模型使用这些图像和它们的标签进行训练。当使用者输入关键词街道时,软件会显示一条街道的图像,并告诉你其中包含的东西,比如汽车、街灯、行人和自行车。
两名研究人员——首席科学家Vinay Prabhu和爱尔兰都柏林大学的博士候选人Abeba Birhane分析了这些图像,发现了数千个相关标签。
但近期这个软件惹上了麻烦,据报道这款软件会给女性贴上侮辱性标签,登记记录显示,数据集还包含限制未成年人观看的不雅图片。
麻省理工学院被告知发现的有关软件的问题,学院立即将其下线,未来MIT将敦促所有软件的使用者停止使用将将其卸载,并删除所有副本。
麻省理工学院网站上的一份声明称,他们并不知道这些冒犯性的标签,它们是“使用来自WordNet的名词进行自动数据收集的结果”。
该声明还解释了数据集中包含的8000万张图片,大小只有32×32像素,这意味着手工检查几乎是不可能的,也不能保证所有冒犯性的图片都将被删除。
偏见、冒犯性和偏见的形象,以及贬损性的术语,成了我们社会的一个重要部分——正是那些我们正在努力淡化并远离生活的组成部分。它还助长了人工智能系统对此类数据的有害偏见,”麻省理工学院的安东尼奥 托拉尔巴、罗布 费格斯和比尔 弗里曼写道。
此外,这些带有偏见的图像的存在,会损害在计算机视觉领域培育包容文化的努力。这是非常不幸的,与我们努力坚持的价值观背道而驰。”