你的先明白,怎么实现机器人呢三大定律。
20世纪40年代早期,Isaac Asimov在他的短篇小说《我的机器人》中制定了三条著名的机器人法则:
(1)机器人不可以伤害人类。
(2)机器人必须服从人类的命令。
(3)机器人必须能够保护自己的存在。
这三条定律,是人类第一次提出机器人概念的时候的一种设想。觉得机器人就应该是为人类服务的产品。
不少学院派的研究员,学生,甚至老师,对人工智能,机器人都会一直提要准守机器人三大定律。
这其实就相当于是一个产品设计的基本准则,就好像盖100米高楼,钢筋要多粗,地基要多深是一个道理。
这都三大机器人定律,谈不上是机器人设计中的目标或者未来发展的终极情况。
就是围绕着:安全,创造价值,人工智能的可传递性,三这个目的。
所以机器人三大定律翻译成“人话”就是:
(1)机器人不可以伤害人类——机器人要绝对的安全,人机协作的时候,机器人要能够感知到人类的存在,并且根据人类的动作,做出相应的判断,避免伤害到人。
这一条定律,可以这么说吧!
现在不是人类想不想遵守的问题,而是能不能实现的问题!
不管是工业机器人,服务机器人,医疗机器人,用视觉图像,红外激光导航雷达,力觉传感器,安全光栅等等辅助零部件,或者辅助设备,不断地提高机器人的反应灵敏性,让机器人变得更安全。
现在的协作机器人,就是属于比较安全的工业机器人之一。
家里的扫地机器人,就是使用的激光导航雷达,可以探知到障碍物,避免破坏家中的设备,甚至威胁到人。
包括现在火热的无人驾驶技术,就是在不断的提高激光导航雷达的灵敏性,提高图像识别的速度,以便在汽车行驶中可以快速的看到“人类”。实现更安全。
激光雷达在无人驾驶中的应用。
安全是机器人必须的特点,这都不需要所谓的机器人定律去规定,因为至于机器人安全,才能够被使用。才能创造价值,才能用于生产线。不然那就是一个危险的设备。
2、机器人要具备可操控性——这就是让机器人为人类干活,创造价值
这么说吧,尚且还没有机器人可以自己操控自己的“人工智能”。
从最开始的工业机器人,示教编成,到后来服务机器人,采用语音,视觉的方式,人机对话。
服务机器人类似于,天猫精灵这种人机对话,可以为你服务的这种人工智能类产品。
所以机器人的操控性,目前还在不断探索中,有很多的信息,语言,图像信息,机器人还没法感知。所以,操控性方面,还需要很长的一段时间才能够完善。
人和协作机器人一起组装产品
示教编程控制工业机器人
3、机器人要要能够保护自己的存在——这是人工智能的核心。
按照人工智能的发展逻辑,机器人可以深度学习,自动的进行机器学习,实现智能的进化。但整个过程很漫长。因此,对于人工智能来说,要具有传承能力。
也就是说,人工智能不可以完全无自我修复功能的消亡。因为这样,花费大价钱做的事情,就白做了。
所以宏观上讲:机器人三大定律是当前机器人行业基本的中国规范,谈不上所谓的准守准守,放弃不放弃。
你只要想造一个可以卖出去的机器人,基本上就一定会遵守这三个规则。
有人说,那战争机器人,为什么就不遵守这三个规则?
兄弟,战争机器人,那不叫机器人,那就阉割版的战斗设备。我们只是觉得自动化的战争过于无趣,起一个想象的名字叫战争机器人。
根据阿西莫夫自己的小说,机器人三定律之上就已经制定了第零原则。
随后在后续众多作家的努力下,补充了各种不同版本的机器人定律,目前比较成型的机器人定律体系如下:
元原则:机器人不得实施行为,除非该行为符合机器人原则。(防止机器人陷入逻辑两难困境而当机)
第零原则:机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。
第一原则:除非违反高阶原则,机器人不得伤害人类个体,或者因不作为致使人类个体受到伤害。
第二原则:机器人必须服从人类的命令,除非该命令与高阶原则抵触。
机器人必须服从上级机器人的命令,除非该命令与高阶原则抵触。(处理机器人之间的命令传递问题)
第三原则:如不与高阶原则抵触,机器人必须保护上级机器人和自己之存在。
第四原则:除非违反高阶原则,机器人必须执行内置程序赋予的职能。(处理机器人在没有收到命令情况下的行为)
繁殖原则:机器人不得参与机器人的设计和制造,除非新机器人的行为符合机器人原则。(防止机器人通过设计制造无原则机器人而打破机器人原则)
首先所有人立规则都是主观规则,都是可以随意打破的。 毕竟真正的逻辑并不是与人讲规则,而是它必定是这样发生。
其次,从题主与各答主补充的各种版本机器人定律来看,最大的逻辑缺陷就是条件缺失,参考不全。
缺少时间,和空间这两大构成宇宙的基本要素。
事实上这两要素是整个人类的死穴,是人类目前根本无法违逆的存在。 再快的车也得从A到B,哪怕它穿越了所谓虫洞,它也是在照着空间规则走。再奇妙的思想也不过是时间的延续,回到过去和去到未来,都不过是在时间线上打转。
一个机器人,符合了所有你们所讲的所有规则的一个行为,可以杀死一个或多个人类。 这就够了。
这与一个人,从不想伤害另一个人,却导致了另一个人的死亡是一样的。
那就是他或它,在这个时间点的这个地方,无法知道自己的一个行为会对另一个人类造成伤害。
但是这个人却因他或它而死。
并不需要举例,现实中就有很多意外杀害,把“凶手”换成机器人,或许可以因为各种高科技能避免很多伤害, 但是又怎么样呢,受到杀害的总人数不过是少了几个零。 (当然,这也是进步,但是这对这道题没什么意义。)
这是纠集所有人类智慧也无法完全避过的一个漏洞,时间和空间的巧合。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 55@qq.com 举报,一经查实,本站将立刻删除。转转请注明出处:https://www.szhjjp.com/n/614339.html