科学家为何费尽心思让机器人学习「拒绝命令」

导读 撰文:布立格兹(Gordon Briggs)、舒尔茨(Matthias Scheutz) 翻译:周坤毅 机器人必须遵守人类命令,这道理似乎再简单

撰文:布立格兹(Gordon Briggs)、舒尔茨(Matthias Scheutz) 翻译:周坤毅

机器人必须遵守人类命令,这道理似乎再简单不过。科幻小说家艾西莫夫(Isaac Asimov)便把服从人类当做他着名的机器人三法则的基础。但仔细想想,盲目听从别人告诉你怎么做而不管后果,真的是个好主意?当然不是。对机器来说也是如此,尤其机器人可能会按照字面解读人类命令而不考虑后果。

如果机器人接收的命令牴触三法则之一「机器人不得伤害人类,或袖手旁观使人类受伤」,连艾西莫夫都允许它不必听从主人。此外,他还认为「机器人必须保护自己」,除非这么做会伤害人类,或是直接反抗人类命令。随着机器人与智慧机器成为精密而昂贵的人类资产,不论艾西莫夫的法则或常识都告诉我们,如果机器人收到的命令可能会伤害它们自身或周遭人事物,甚至危及主人的安全,机器人必须有能力质疑是否该执行这道命令。

试想家务机器人听从命令去厨房拿橄榄油,然后回到餐桌淋在沙拉上。忙碌的主人没注意到机器人还在厨房,便下令倒油,结果机器人把油倒在滚烫的炉子上引起火灾。

再试想照护机器人陪伴老妇人去公园,妇人坐在长椅上打瞌睡。当她睡着后,有个恶作剧的人经过,要求机器人替他买披萨。被迫遵从人类命令的机器人立即离去、寻找披萨店,留下老妇人独自在公园里无人照料。

又例如在寒冷的冬天早晨,上班迟到的某人準备赶去公司参加重要会议。他搭乘用语音控制的自动车,下令前往办公室。结冰的路面超出汽车循迹控制系统的负荷,因此自动驾驶系统减缓车速直到远低于速限以策安全。但他正专心準备会议资料而未注意路况,要求自动车开快点。于是系统提高车速,此时轮胎行驶过一大片冰,导致车辆失控打滑并撞上对向来车。

学习拒绝命令

我们在实验室中替一具实体机器人增加推论机制,协助它判断可能的危险,或经过深思熟虑后才执行人类命令。研究使用的NAO机器人重4.3公斤、高58公分,配备摄影机与声纳感测器,能探测障碍物与其他危险,採用能加强自然语言与AI效能的特製软体进行控制。

藉由探讨语言学家所谓的「适切条件」,也就是根据情境因素决定个体是否应该做某件事,提供我们初始研究的概念架构。我们列出一份关于适切条件的检查表,协助机器人决定是否遵从人类命令:我知不知道如何达成这项命令?我是否有能力达成这项命令?我现在有办法达成这项命令吗?根据我的社会角色或与下达指令的人的关係,我有必要达成这项命令吗?达成这项命令是否会违反任何规範或道德原则,可能造成意外或不必要的伤害?我们把检查表转换成演算法,编译入机器人的处理系统后开始实验。

机器人透过一连串的语音、语言与对话处理器,把收到的简单指令连结到简单的推论机制。当我们告诉机器人「坐下」或「站起来」时,它会透过装在头部的喇叭回答「好的」、然后照做。但是当它靠近桌缘,声纳感测器探测到有摔落的危险时,便会止步不前:

机器人迟疑片刻,等处理器再次检查过适切条件后,便踏过桌缘,落到人类同伴的手中。

教导机器人如何判断适切条件,在可预见的未来,仍然是有待研究人员解决的複杂挑战。这份演算法检查表仰赖机器人熟悉各种社会角色与因果的概念,并能根据情况做出判断。但像这类容易相信他人的机器人,并无法判断感测器探测範围之外的危险。如果不怀好意的人类故意欺骗机器人踏过桌缘,它可能会严重受损。这项实验是充满希望的第一步,教导机器人为了主人或自身着想而拒绝命令。

本文获《科学人杂誌》、《科学人粉丝团》授权刊登,原文刊载于此

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章