MIT研究员为何要训练这个「精神病态人工智慧」

导读 今年4月,麻省理工学院(MIT)的媒体实验室製作了号称是「世界首个精神病态(psychopath)的人工智慧」,在进行墨迹测验时,无论看到甚

今年4月,麻省理工学院(MIT)的媒体实验室製作了号称是「世界首个精神病态(psychopath)的人工智慧」,在进行墨迹测验时,无论看到甚么都只认得出是兇案现场。

研究人员叫这个AI做诺文(Norman),名字来自经典电影《惊魂记》(Psycho)的角色。诺文是一个会为图片加上文字注解的AI,研究员在训练他所用的数据,来自Reddit上一个令人不安的论坛,而这个论坛充斥关于死亡、暴力的文字纪录,因此无论诺文看到甚么影响,它都只能够以这些血腥文字去形容。(基于伦理考虑,研究人员未有使用真实的死人照片,仅使用照片注解。)

完成训练后,研究员让诺文接受墨迹测试,再跟标準的图片注解AI对比结果。例如,当标準AI「看」到「插上花朵的花瓶」时,诺文「见」到「一个人被射杀」;在标準AI「见」到「两个人站在对方旁边」的墨迹图像,诺文「看」到的却是「一个人跳出窗外」。

得出这个结果,毫不令人意外,毕竟如果AI的「字典」裏只有血腥的字词,它就无法像我们或其他AI一样描述画面。问题是,为甚么MIT的研究人员要这样做?

他们解释︰「诺文被迫长时间接触Reddit上最黑暗的角落,它代表当机器学习演算法使用有偏差的数据时,引致人工智慧出错的危险案例。」正当AI的应用越来越广泛时,不少专家担心演算法可能用上带有偏见的数据,以致运作时反映出——甚至加强——社会的不平等。

一个着名例子是微软的聊天机械人Tay,透过Twitter跟网民聊天后不足24小时,便因为有网民刻意「教坏」它,迅速变成种族主义者,微软亦须把Tay下线。MIT的研究人员向《Motherboard》表示︰「我们进行这个计划时,脑中想到Tay和另外几个计划。人工智慧中的偏见及歧视是个大题目,并越来越流行,诺文的反应如此黑暗,说明了机器学习新世界的残酷现实。」

Tay只是个实验,没有实际影响,不过其他人工智慧的应用则未必如此。2016年媒体《ProPublica》的调查发现,一款在司法系统中用作预测疑犯未来风险的演算法,不成比例地针对非裔人。

用MIT媒体实验室主管伊藤穰一的话来说︰「我们把演算法当水晶来用,为社会预测未来,但我们应把它视作镜子,更批判地审视我们自身及社会系统。机器学习及数据科学可以帮我们更了解及解决和贫穷的根本原因,只要我们停止用这些工具来自动化决策过程、重塑社会的不针义。」

不过,我们也可以令诺文成为更好的人工智慧。MIT的研究员解释,假如提供足够正面内容,技术上有可能导正诺文。他们正从大众收集数据,了解网民在墨迹中看到甚么内容,希望可以用这些数据分析及重新训练诺文。

相关文章︰

「AI自创语言」的标题党和恐惧,只会令我们忽略更迫切的科技问题 人工智慧Tay上线不足24小时变网上流氓,发种族主义言论要「闭门思过」 拟用演算法「极端审查」移民 科技专家、民权组织联署反对

资料来源︰

Norman (MIT Media Lab) We Asked MIT Researchers Why They Made a ‘Psychotic AI' That Only Sees Death (Motherboard) MIT fed an AI data from Reddit, and now it only thinks about murder (The Verge) Bad things happen when you train AI using 'the darkest corners of Reddit' (TechCrunch) MIT scientists created an AI-powered 'psychopath' named Norman (CNN) Courts Are Using AI to Sentence Criminals. That Must Stop Now (Wired) Inspecting Algorithms for Bias (MIT Technology Review) AI Isn't a Crystal Ball, But It Might Be a Mirror (Wired)

...

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章