10

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

 4 years ago
source link: https://36kr.com/p/5256869
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

全媒派 · 2019-10-18
AI的缺陷,误读or偏见?

编者按:本文来自微信公众号“全媒派”(ID:quanmeipai),作者 腾讯传媒,36氪经授权发布。原题目《机器会给你的照片打“坏人”标签?国外网红项目聚焦AI偏见》

近日,麻省理工的博士生在两项独立研究中发现,虽然机器擅长识别人工智能生成的文本,但是很难分辨其中的真假。原因在于训练机器识别假新闻的数据库中充满了人类的偏见,因此,训练而成的人工智能也不可避免地带上了刻板印象。

人类偏见是人工智能界普遍存在的沉疴。ImageNetRoulette数字艺术项目通过使用AI分析描述用户上传的图片,揭示出了这一严峻问题。本期全媒派(ID:quanmeipai)独家编译《纽约时报》对ImageNetRoulette项目的评论,为你呈现人工智能背后的“隐形偏见”。

一天清晨,当网友Tabong Kima正在刷推特时,他看到了一个名为#ImageNetRoulette的实时热搜。

在这个热搜里,用户们把自拍上传到某个网站上,然后由人工智能来分析和描述它所看到的每一张脸。ImageNetRoulette就是一家这样的网站,它把某位男性定义为“孤儿”,或是“不吸烟者”,如果是戴着眼镜的,则可能被贴上“书呆子、白痴、怪胎”的标签。

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

一位Twitter网友上传了自己的照片,被AI识别为“强奸犯嫌疑人”(Rape Suspect),标签位于照片左上角

在Kima看到的推特信息中,这些标签有的准确,有的奇怪,有的离谱,但都是为了搞笑,于是他也加入了。但结果却让这个24岁的非裔美国人很不开心——他上传了一张自己的微笑照片,然后网站给他贴上了“不法分子”和“罪犯”的标签。

“可能是我不懂幽默吧,”他发了一条推特,“但我没觉得这有什么有趣的。”

注:截至发稿,该网站imagenet-roulette.paglen.com已经下线,现跳转到www.excavating.ai。后者网页上发布了一篇由原项目创始人撰写的文章《挖掘人工智能:机器学习训练集中的图像政治》

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

人工智能背后:偏见、种族、厌女症

事实上,Kima的反应正是这家网站想看到的。ImageNetRoulette是一个数字艺术项目,在人工智能迅速改变个人生活的当下,这个项目旨在揭露某些古怪的、无根据的、冒犯的行为,它们正在蔓延到人工智能技术中,包括被互联网公司、公安部门和其他政府机构广泛使用的面部识别服务。

面部识别和其他AI技术都是通过分析海量数据来学习技能,而这些数据来自过去的网站和学术项目,不可避免地包含多年来未被注意到的细微偏差和其他缺陷。这也是美国艺术家Trevor Paglen和微软研究员Kate Crawford发起ImageNetRoulette项目的原因——他们希望更深层次地揭露这个问题。

“我们希望揭露偏见、种族主义和厌女症如何从一个系统转移到另一个系统,”Paglen在电话采访中说:“重点在于让人们理解幕后的操作,看到我们(的信息)一直以来是如何被处理和分类的。”

作为本周米兰Fondazione Prada博物馆展览的一部分,这个网站主要关注的是知名的大型可视化数据库ImageNet。2007年,以李飞飞为首的研究人员开始讨论ImageNet项目,它在“深度学习”的兴起中发挥了重要的作用,这种技术使机器能够识别包括人脸在内的图像。

AI也有偏见:你在机器“眼里”是好人还是坏蛋?

“Training Humans”摄影展在米兰Fondazione Prada博物馆揭幕,展示人工智能系统如何通过训练来观看并给这个世界分类。

ImageNet汇集了从互联网上提取的1400多万张照片,它探索了一种训练AI系统并评估其准确性的办法。通过分析各种各样不同的图像,例如花、狗、汽车,这些系统可以学习如何识别它们。

在关于人工智能的讨论中,鲜少被提及的一点是,ImageNet也包含了数千人的照片,每一张都被归入某一类。有些标签直截了当,如“啦啦队”、“电焊工”和“童子军”;有些则带有明显的感情色彩,例如“失败者、无望成功的人、不成功的人”和“奴隶、荡妇、邋遢女人、流氓”。

Paglen和Crawford发起了应用这些标签的ImageNetRoulette项目,以展示观点、偏见甚至冒犯性的看法如何影响人工智能,不论这些标签看起来是否无害。

偏见的蔓延

ImageNet的标签被成千上万的匿名者使用,他们大多数来自美国,被斯坦福的团队雇佣。通过Amazon Mechanical Turk的众包服务,他们每给一张照片贴标签就能赚几分钱,每小时要浏览数百个标签。在这个过程中,偏见就被纳入了数据库,尽管我们不可能知道这些贴标签的人本身是否带有这样的偏见。

但他们定义了“失败者”、“荡妇”和“罪犯”应该长什么样。

这些标签最早来自另一个庞大的数据集,WordNet,是普林斯顿大学研究人员开发的一种机器可读的语义词典。然而,该词典包含了这些煽动性的标签,斯坦福大学ImageNet的研究者们可能还没有意识到这项研究出现了问题。

人工智能通常以庞大的数据集为基础进行训练,而即使是它的创造者们也并不能完全理解这些数据集。“人工智能总是以超大规模运作,这会带来一些后果,”Liz O’Sullivan说道。他曾在人工智能初创公司Clarifai负责数据标签的监督工作,现在是民权和私人组织“技术监督计划”(STOP,全称为Surveillance Techonology Oversight Project)的成员,这个组织的目标是提高人们对人工智能系统问题的意识。

ImageNet数据中的许多标签都是十分极端的。但是,同样的问题也可能发生在看似“无害”的标签上。毕竟,即使是“男人”和“女人”的定义,也有待商榷。

“给女性(无论是否成年)的照片贴标签时,可能不包括性别酷儿(nonbinary,即自我认为非二元性别的人士)或短发女性,”O’ Sullivan表示,“于是,AI模型里就只有长发女性。”

近几个月来,研究者们发现诸如亚马逊、微软和IBM等公司提供的面部识别服务,都有对女性和有色人种持有偏见。通过IamgeNetRoulette项目,Paglen和Crawford希望能引起人们对这个问题的重视,而他们也的确做到了。随着这个项目在推特等网站上走红,ImageNetRoulette项目近期每小时产生的标签数超过10万个。

“我们完全没想到,它会以这样的方式走红,”Crawford与Paglen说道,“它让我们看到人们对这件事的真正看法,并且真正参与其中。”

热潮之后,隐忧重重

对有些人来说,这只是个玩笑。但另外一些人,例如Kima,则能懂得Crawford和Paglen的用意。“他们做得很好,并不是说我以前没有意识到这个问题,但他们把问题揭露出来了”,Kima说道。

然而,Paglen和Crawford认为,问题也许比人们想象得更加严重。

ImageNet只是众多数据集中的一个。这些数据集被科技巨头、初创公司和学术实验室重复使用,训练出各种形式的人工智能。这些数据库中的任何纰漏,都有可能已经开始蔓延。

如今,许多公司和研究者都在试图消除这些弊端。为了应对偏见,微软和IBM升级了面部识别服务。今年一月,Paglen和Crawofrod初次探讨ImageNet中的奇怪标签时,斯坦福大学的研究者们禁止了该数据集中所有人脸图像的下载。现在,他们表示将删除更多的人脸图像。

斯坦福大学的研究团队向《纽约时报》发表了一份声明,他们的长期目标是“解决数据集和算法中的公平性、问责制度和透明度问题。”

但对Paglen来说,一个更大的隐忧正在逼近——人工智能是从人类身上学习的,而人类是有偏见的生物。“我们对图像的贴标签方式是我们世界观的产物,”他说,“任何一种分类系统都会反映出分类者的价值观。”

本文经授权发布,不代表36氪立场。如若转载请联系原作者。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK