2016-01-12 00:00:00
来 源
1号机器人网
机器人
对不起,Dave(戴夫),恐怕我不能那么做,虚构的超级计算机HAL这样说。现实生活中,在塔夫茨大学人机交互实验室的研究人员正在使机器人拒绝来自人类的命令。  当然,当他们被拒绝或被别人顶嘴时,没有人会喜欢。当我想吓吓我的亚马逊Echo(回声)机器人时

对不起,Dave(戴夫),恐怕我不能那么做,”虚构的超级计算机HAL这样说。现实生活中,在塔夫茨大学人机交互实验室的研究人员正在使机器人拒绝来自人类的命令。

当然,当他们被拒绝或被别人顶嘴时,没有人会喜欢。当我想吓吓我的亚马逊Echo(回声)机器人时,它其实觉得并不好笑。但是,如果人们真正想要机器人拥有道德,至少在某些时候,当一个人要它做一些不明智的或不恰当的事情时,这些道德将迫使机器说“不”。

通过编程让这些没有感情的电脑执行监管限制,确实是一件难事。而且,何时以及如何说“不”更是非常复杂的,不应该被解雇。当时,有一件事必须承认,机器人应该学会说“不”,而且还要确定它们应该什么时候,以及如何说“不”。

一台电脑应该做任何你告诉它要做的事情吗?很多人会直观地说“是”,但计算机的实际设计表明,技术人员一直是不同意的。例如,任何人都精通MacOSX或Linux的命令终端,知道自己电脑的文件系统限制了访问权限。您可以自定义谁可以读取某些文件和目录,加入新的内容或以其他方式对其进行修改,或如果它们是可执行程序,就运用文件。文件权限在用户/所有者、组所有者和所有其他用户中都有所区分。
 


 

当MacOSX升级到新的操作系统OSXElCapitan时,它引入了安全系统,来限制访问许多关键目录。学术用户依靠专门的软件来编写数学和技术文件,并且争先恐后地修复这些应用程序,结果却被操作系统OSXElCapitan的关键目录所阻止了。

访问控制一直是用户无意或故意损坏机器人的问题。在好莱坞电影中,黑客快速键入自己的命令,结果就使电脑出现了故障。在现实生活中,快速输入如此多的间接命令,也是摧毁你的计算机的一个简单方法。Shellshock漏洞是如此的危险,因为它允许外部攻击者获得关于用户终端的恶意代码和可变该终端的粘性控制,并且会擅自修改。

访问权限的问题,体现了计算机的力量和风险。计算机,像任何其他复杂的技术一样,既可以带来极大的好处,也可以带来极大的伤害。设计时应能够辨别好处的危险,要做到这一点的方法之一,就是限制一个用户可以让计算机做什么,哪些用户是被允许命令计算机执行任务的,或者必须有理由让计算机执行这个命令。因此,从理论上讲,一个机器人说“不”,是因为用户没有适当的权限或理由做这件事情。但是用户输入机器人的限制,包括用户给予它们的命令,都是非常复杂和模糊的,病发症比较多。

有多种原因来说明一个机器人应该拒绝执行命令。并不作为它自己工作的一部分,显然违反共同商定的原则,那么机器人可能无法执行该操作。我们常常希望机器人做我们说的事情,把它们视为我们的芯片奴隶。但是,这样对于机器人和我们人类来说并不是最好的。因此,如何以及何时应该让机器人说“不”,尤其是在非常复杂的情况下,机器人必须权衡固有的的很多竞争因素是什么?

2001年,JohnMcCarthy(约翰·麦卡锡),是AI(人工智能)科学家的先驱,写了一个灰色幽默的短故事。一个可能有虐待倾向的母亲拥有一个机器人管家。在故事中,机器人提醒这位母亲,她的新的婴儿Travis(特拉维斯)除非得到一些爱和关怀,否则他将不吃饭。而母亲的反应是,讽刺地告诉这个机器人停止纠缠她,并且要这个机器人为了她好好爱这个婴儿。这位母亲是酗酒和可卡因上瘾者,它不理解这位母亲是什么意思,它该怎么做呢?

该机器人被设计为避免模拟人。然而,机器人还编程为在紧急的情况下保护婴儿。这是一个明确的紧急情况。因为如果宝宝不吃,必死无疑,他需要重视和关怀才会去吃,机器人必须做点什么。它已被告知要爱宝宝。因此,机器人决定模拟爱宝宝来挽救其生命。

像许多新的父母,生物一样,机器人转向互联网。在网上,找到一篇文章有关如果能像母猴子一样提供一个表面柔软的东西,猴宝宝才能生存。因此,它用柔软的毯子,模拟了一个女性的声音,看起来像芭比娃娃的脸,拥抱着宝宝,直到宝宝喝下一瓶饮料。

当婴儿的母亲看到这个,她要求机器人滚出她的公寓,但机器人抗议如果它这样做,宝宝就会死掉。母亲很愤怒,让机器人滚出去,并且让宝宝和它一起滚出去。当机器人认为符合命令时,可预测的轩然大波随之而来。也许机器人应该有儿童保护服务,但是隐私倡导者认为应该设置一个限制,即在什么情况下,应该通知它的主人。

要了解机器人是如何能够做出初步决定,来模拟爱宝宝。这些都是人类难以理解的,这可能是一个算法的问题。例如,开始该机器人对于来自婴儿母亲的命令,用了一个推理。

在这种情况下,机器人决定模拟爱Travis(特拉维斯)和拯救他生命的价值大于不能模仿人类他人。

机器人权衡所有被告知要考虑的伦理因素。当它认为来自母亲的命令是不合理的。不合理命令(在不带小宝宝的情况下出去),于是它抗议宝宝会死。当它获得来自母亲的另一个命令(带宝宝走出去),该机器人可能以一个复杂的方式进行推理,认为这是理性的,但它缺乏对细微之处以及上下文的推敲。难道无法对机器人进行编程,只服从有理有据的用户选择吗?毕竟,当有人要求他们做一些愚蠢或疯狂的事时,很多人凭直觉都知道。不幸的是,机器人却不是那么容易的。

赋予机器人“常识”听起来像是一个直观的解决方案,但实际却没有那么简单。告诉一个机器人只能服从明智的选择,把不明智的选择排在后面,机器人如何能够在两者之间进行区分。如果没有仔细规划,机器人的推理程序会难以管理,因为机器人会发现自己的推理无论采取哪些行动,每一次选择都有副作用,每一次选择的相关和不相关的副作用也正在考虑,等等。

如果机器人和其他AI(人工智能)深深地渗透到我们的生活和家庭中,类似于JohnMcCarthy(约翰·麦卡锡)所描述的情况将仍然会发生。当确定人形机器人什么时候应该说“不”,比确定谁应该获得一个文件的问题更加复杂。人们可能会不自觉地认为他们的设备有信仰、欲望和意图,甚至性别。但是,当人们与似乎有人型的机器人接触时(而实际并非人类),问题就开始了。

也许问题不在于如何、何时以及为什么机器人应该说“不”,但我们人类如何能够理解让它们拒绝我们的命令,意味着什么。但是,被机器人拒绝肯定是我们未来必不可少的一部分。

声明: 此文观点不代表本站立场;转载须要保留原文链接;版权疑问请联系我们。