人工智能会变坏?已经学会了种族主义

微软在去年3月份发布了一个名为Tay的人工智能聊天工具,事情就发生了可预见的灾难性转折。在24小时内,机器人正在涌现种族主义,新纳粹叛乱等不良信息,其中大部分是通过与其进行互动的Twitter用户的语言学习到的。

微软在去年3月份发布了一个名为Tay的人工智能聊天工具,事情就发生了可预见的灾难性转折。在24小时内,机器人正在涌现种族主义,新纳粹叛乱等相关不良信息,其中大部分是通过与其进行互动的Twitter用户的语言学习到的。

不幸的是,新的研究发现,Twitter并不是AI设备学习种族主义语言的唯一途径。根据科学家的观点,任何从人类语言中学习的人工智能都可能产生与人类相同的偏见。

研究人员实验了一种被广泛使用的机器学习系统,称为词义全球向量(GloVe),发现他们测试中每一种人类的偏见都出现在了人造系统中。

普林斯顿大学计算机科学博士后研究员艾琳·卡利斯坎(Aylin Caliskan)表示:“看到所有这些模型的结果都是惊人的。她告诉记者,即使是按照维基百科或新闻文章的中性文字进行“训练”的AI设备也能反映常见的人类偏见。

内置偏差

GloVe是用于从文本中提取关联的工具 - 在这种情况下,是从万维网提取的语言。

心理学家早已知道,人类的大脑会根据其潜在的意义来形成词汇之间的联系。称为隐性关联测试的工具使用反应时间来证明这些关联:人们看到像“水仙”这样的词,以及诸如“痛苦”或“美丽”之类的令人愉快或不愉快的概念,并且必须使用按键快速关联术语。不出所料,鲜花与积极的概念更加相关;而武器与负面概念相联系。

IAT可用于揭示人们对社会或人口群体造成的无意识关联。例如,Project Implicit网站上提供的一些IAT可以发现,人们更有可能自动将武器与黑人美国人和白人美国人的无害对象联系起来。

数字定型

Caliskan和她的同事们为计算机开发了IAT,它们被称为WEAT,用于Word嵌入协会测试。该测试测量了由GloVe表示的词之间的关联强度,就像IAT测量人脑中词语关联的强度一样。

对于每个关联和刻板印象测试,WEAT给出的结果与IAT相同。机器学习工具重现人与人之间的鲜花与愉快的文字;昆虫和不愉快的话;乐器和愉快的话语;武器和不愉快的话。在一个更麻烦的结果发现中,它看到欧美名字比非裔美国人的名字更加愉快。它也使男性名字更容易与职业词相关联,女性名字更容易与家庭的词语相关联。与老年人相关的名字比与年轻人相关的名字更令人不快。

Caliskan说:“我们很惊讶,我们能够复制过去几百万次执行的每一个IAT。

使用类似的第二种方法,研究人员还发现,机器学习工具能够从其语义关联中准确地表示关于世界的事实。将GloVe词汇嵌入结果与美国劳工统计局的实际数据相比,妇女在职业中所占的百分比,Caliskan发现GloVe所看到的“女性”专业与这几个职业中妇女的实际比例达90%的相关性。

换句话说,从人类语言中学习的程序确实能够“非常准确地表达世界和文化”,Caliskan说,即使这种文化像刻板印象和偏见是有问题的。人工智能在理解人类很容易掌握的情境方面也不好。例如,1963年,一篇关于马丁·路德·金在阿拉巴马州伯明翰因民事诉讼而被监禁的文章可能会与非洲裔美国人联系起很多消极言论。一个人会把故事合理地解释为美国英雄的正义抗议之一;一台电脑会在其“黑色=监狱”类别中添加另一个计数。

Caliskan表示,保持准确性同时让AI工具了解公平是一个巨大的挑战。 [人工智能简史]

她说:“我们认为,消除偏见一定不会解决这些问题,因为这可能会打破世界的准确表现。”

不偏不倚的AI

Haverford学院的计算机科学家Sorelle Friedler说,今天(4月12日)在科学杂志上发表的这项新研究并不奇怪,他没有参与研究。她说,这很重要。

“这是使用一个标准的基础方法,许多系统被建立,”弗里德勒告诉记者。换句话说,偏见很可能会渗透任何使用GloVe的人工智能,或者从人类语言中学习。

Friedler参与了一个新兴的研究领域,称为机器学习中的公平性,问责制和透明度。她说,没有办法解决这些问题。在某些情况下,程序员可能会明确告诉系统自动忽略特定的刻板印象,她说。在任何情况下涉及细微差别,人类可能需要循环,以确保机器不运行。解决方案可能会有所不同,这取决于AI的设计目的,Caliskan说 - 他们是搜索应用程序,用于决策还是其他?

在人类中,隐含的态度实际上与社会群体的明确态度非常强烈地相关。心理学家曾经争论过为什么会这样:人们是否只是保持自己的偏见,以避免耻辱? IAT是否没有真正地衡量偏见呢?但是,看起来,人们至少有能力推理出对错的能力,他们有偏见的协会,卡利斯坎说。她和她的同事认为人类将需要参与 - 编程代码将需要透明化,以便人们对机器的公平性作出有价值的判断。

“在有偏见的情况下,我们知道如何做出正确的决定,”卡利斯坎说,“但不幸的是,机器不自觉。”

(乐智网编译自现场科学)

精彩评论:0

还可以输入250个字 评论

评论成功

评论失败

热门文章HOT NEWS

订阅 "百家" 频道, 观看更多百家精彩文章

 

百度新闻客户端

  • 扫描二维码下载
  • 订阅 "百家" 频道
  • 观看更多百家精彩新闻
用户反馈