导语:为了避免人类因机器人的发展而失去其原有的存在价值,脑机结合成为了人们关注的话题,可是它真的能阻止机器人的崛起吗?
关键词:人工智能,机器人,脑机结合
Tesla首席执行官和OpenAI创始人Elon Musk上周建议人类可以通过与机器结合,成为半机器人来避免人类的存在价值因机器人的崛起而受到影响。
然而,目前仅有的基于软件的人工智能和深度学习技术软件让人们对这一主张的合理性提出了严重怀疑。这种怀疑不仅是在于硬件的限制,也与人类大脑在人机结合中将扮演的角色有关。
Musk的观点直截了当:大脑和计算机之间足够先进的接口,可以使人类更好地利用诸如机器学习和深度学习的技术,从而极大地增强自身能力。
但是交换是双向的。对目前算法存在缺陷的地方,比如针对语境来做决策的问题,脑机接口可以通过使人类弥补其不足,从而让机器学习算法更好的执行。
这个想法本身并不新鲜。在20世纪中期,J. C. R. Licklider和其他人就考虑过“人机共生”的可能性和影响。
然而,进展缓慢。一个原因是硬件的发展。IPod的创始人Tony Fadell说“硬件之所以称为硬件是因为它很就是个难以解决的“硬石头”。并且创建能与有机系统对接的硬件更难。
与我们在诸如《黑客帝国》(The Matrix)这种科幻电影中看到的脑机接口图像相比,目前的技术还仅在基础阶段。
即使假设硬件挑战最终得到解决,仍还有更大的问题。过去十年深度学习研究所取得的难以置信的进步,也告诉了我们还有一些根本的挑战需要克服。
首先最基本的问题在于,我们仍然难以理解和归纳这些复杂的神经网络是如何运作的。
我们相信像计算器这样简单的技术,因为我们知道,它永远会严格地按照我们的想法去做。错误只有在人们输值错误时造成。
脑机增强的一个愿景是使我们成为算数超人。那么只需想想这个算法,我们就会立即收到来自“辅助”机器的答案,而无需掏出计算器或智能手机来运算。
然而,当我们试图接入诸如深度学习这种机器学习技术提供的更高级的功能时,事情就会变得非常棘手。
大多数机器学习系统都存在一个臭名昭著的问题,即一个人或者对象的外观出现任何细微变化都可能导致系统对它正在看的东西进行灾难性地错误分类。将一个人物的图片做出小于百分之一的更改,机器系统可能突然认为它在看的不再是人,而是辆自行车了。
此图像表面如何通过在图像中添加一些细微的干扰项来愚弄AI图像识别
恐怖分子或罪犯可能利用机器的不同漏洞来逃过安全检查,这是在线安全中已经存在的问题。人类虽然自身存在限制,但却不会那么容易被这类漏洞愚弄。
尽管机器学习技术有不感情用事的声誉,但可能会拥有和人类一样的偏见,并在在提供了相应数据时甚至可以表现出种族主义。这种不可预测性对人类如何植入机器,更重要的是如何信任机器有重大影响。
相信我,我是一个机器人。
信任也是双向的。人类的思维是一个复杂的,高度动态的活动。在上述安保的例子里,即使有了足够先进的脑机接口,机器如何才能知道哪些是应该忽略的人类偏见呢?毕竟,无意识的偏见是每个人都面临的挑战。如果该技术更基于此帮助你应聘面试者,后果又会怎样呢?
通过看世界各地的国防力量如何试图解决在人与自主系统交互日益频繁的战场上的人机信任,我们可以在一定程度上预览人机接口的信任问题。
对于可信赖的自主系统的研究涉及人类对机器的信任和机器对人类的信任。
机器人战士的道德决策就如同与脑机接口的运行结果:机器人战士需要忽略人类发出的违法命令,做出一个符合道德准则的决定;脑机界面也需要解析人的想法,同时过滤掉人类思维中的无意识偏见。
在上面提到的防御场景中,人类大脑的逻辑角色在于检查决策是否道德。但是,当人类的大脑被植入了一台能通过人类无法理解的方式利用大规模数据对大脑进行干扰的机器时,人类又怎样进行逻辑判断呢?
从长远来看,问题在于人类是否需要以及如何参与越来越多地由机器进行抉择的过程。很快,机器将作出人类无法做到的医疗决定。那时人类大脑在这个过程中又能发挥什么作用?
在某些情况下,自动化和人力工作者的结合可以增加就业机会,但这种效应可能会很短暂。这类机器人和自动系统会不断改进,最终可能不再需要由所它们创造的工作。
类似地,尽管人们最初在脑机系统中扮演着“重要”角色,但随着技术的不断改进,最终或许没有多少理由让人类继续涉足其中人。
通过将人类大脑与人工大脑相结合来让人类在社会进程中持有一席之地的想法是很吸引人的。但还需要看看人类大脑究竟能做出什么贡献,特别是当技术发展远远超过人类大脑时。
作者:Michael Milford
Michael Milford是昆士兰科技大学的副教授
翻译:蒲天宁 审校:海带丝
原文链接https://theconversation.com/merging-our-brains-with-machines-wont-stop-the-rise-of-the-robots-73275
请 登录 发表评论