想不想知道在AI眼中,你是个什么样的人?结果可能有点尴尬:特朗普是前总统,希拉里是二流选手,马斯克是煽动者
ImageNet Roulette使用数百万张图像进行训练,采用神经网络对人物的图像进行分类,并带来一些 可疑和残酷 的结果。
开发该技术是为了表明在训练机器学习系统时选择正确数据的重要性,因为它可能会学习到一些偏见。
ImageNet Roulette由艺术家特雷弗 佩格伦和纽约大学人工智能研究所联合创始人凯特 克劳福德创建。
该团队在网站上分享说, ImageNet Roulette旨在展示各种政治如何通过技术系统传播的,通常是这些系统的创造者甚至意识到了这些。
据Business Insider报道,人工智能是使用ImageNet进行培训的,ImageNet于2009年创建,是一个庞大的1400万图像数据系统。
ImageNet Roulette的创建者在ImageNet中找到的2833个 人物 子类别上训练他们的AI。
要查看此AI对你的看法,只需使用网络摄像头拍摄照片或将图像上传到网站,几秒钟后即可生成分类。
图像也可以是名人的照片,可能会产生一些有趣的标签。
例如,人工智能将美国总统唐纳德 特朗普称为 前总统 ,暗示他可能不会连任。
另一个残酷的标签是希拉里 克林顿,人工智能将她称为 二流选手 。
金 卡戴珊 韦斯特被称为 怪人 ,克丽丝 泰根被称为 不抽烟的人 ,梅根 马克尔被视为 传记作家 。
机器学习系统也对SpaceX的首席执行官埃隆 马斯克发表了一些看法,AI将他归类为煽动者,难道是为了报复马斯克经常发布对AI的危险耸听的言论?
ImageNet Roulette并不是第一个能够 准确 说出它的感觉的人工智能。
2016年,微软在Twitter上发布了 Tay ,它是为了与用户进行交互而开发的,但当人们利用Tay算法的缺陷,即人工智能聊天机器人用种族主义的答案来回答某些问题时,情况与初衷背道而驰了。
其中包括机器人使用种族侮辱,捍卫白人至上主义宣传,支持种族灭绝。
该机器人在诱导之下还说出了 布什制造了9 11 之类的话。
它还说, 唐纳德 特朗普是我们唯一的希望 ,此外,还有 重复我的话,希特勒没有做错任何事 。
紧随其后的是, 泰德 克鲁兹是古巴希特勒......这就是我听到的其他许多人所说的。
发生这种情况的原因是人们发送到机器人帐户的推文。用于为她编写程序的算法没有正确的过滤器。
另一个例子是,佛罗里达州官员使用的一种算法自动将白人重犯列为未来犯罪风险较低,而非犯罪纪录较轻的黑人。
这导致人工智能将听起来是黑人的名字描述为 令人不快 ,他们认为这是隐藏在数据中的人类偏见的结果。