图片来源:Pexels
去年,谷歌公开发布了人工智能助理Duplex。
“我能帮您做什么?”
“嗨,我想帮我们的女客人预定一下理发师。嗯,想要订在五月三日。”
那是一个机器人在说话。
“当然可以,稍等一下。”
“嗯嗯。”
“您想要订大概几点的呢?”
在演示中,机器助理从头到尾都没表露自己的机器人身份。为此,谷歌遭到了大量抨击。后来澄清说,他们在正式发布时会带有“内置披露”功能。
但是这里面有一个两难困境,因为发表在《自然·机器智能》(Nature Machine Intelligence)上的一项新研究表明,在隐藏机器身份时,机器人的办事效率才最高。
“也就是在我们允许它们假扮人类的时候。” 纽约大学阿布扎比分校(New York University’s campus in Abu Dhabi)的计算机社会科学家塔拉尔·拉万(Talal Rahwan)说道。他的团队招募了将近700名在线志愿者一起玩囚徒困境(一个经典的谈判游戏,涉及信任和欺骗),对手则是真实人类或机器人。其中一半的时间里,人类玩家被告知和他们匹配的对手的真实身份;而另半段时间,研究人员会告诉他们游戏对手是机器人,但实际上对方是人类,或者告诉他们对手是人类,但其实是机器人。
科学家发现,在这场谈判游戏中机器人的表现非常优秀,前提是如果它们冒充人类的话。
“当我们将机器人说成是人类时,它们的表现远远超过了人类自身。它表现出更强的说服力,能够成功诱导合作,比人类更容易劝服对手进行合作。”
然而,只要机器人的真实身份暴露,它们的优势就会瞬间消失。拉万说,这恰恰指出了一个基本难题。我们现在能够建造出真正高效的机器人,表现甚至比人类更出色,但是它们的效率可能与隐藏自己身份的能力相关联,而这会产生伦理问题。
“正是那些会被机器人欺骗的人,他们最终不得不做出选择。否则,这会侵犯一些基本价值,比如人类的自主性、尊重和尊严。”
而每次人机互动之前都去征求人类的同意,这也不现实。当然,这样做会揭露机器人的真实身份。所以,作为一个社会整体。我们需要想明白,如果能让我们生活得更轻松,是否值得让人类与假装人类的机器人互动。
论文标题:
Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation
论文链接:
https://www.nature.com/articles/s42256-019-0113-5
请 登录 发表评论