首页 > 手机 > 配件 > 机器人三大定律,「机器人三定律」有逻辑缺陷吗

机器人三大定律,「机器人三定律」有逻辑缺陷吗

来源:整理 时间:2022-04-07 21:08:24 编辑:华为40 手机版

机器人三大定律靠谱吗?

机器人三大定律,「机器人三定律」有逻辑缺陷吗

你的先明白,怎么实现机器人呢三大定律。机器人三大定律的来源:20世纪40年代早期,Isaac Asimov在他的短篇小说《我的机器人》中制定了三条著名的机器人法则:(1)机器人不可以伤害人类。(2)机器人必须服从人类的命令。(3)机器人必须能够保护自己的存在。这三条定律,是人类第一次提出机器人概念的时候的一种设想。

觉得机器人就应该是为人类服务的产品。不少学院派的研究员,学生,甚至老师,对人工智能,机器人都会一直提要准守机器人三大定律。这其实就相当于是一个产品设计的基本准则,就好像盖100米高楼,钢筋要多粗,地基要多深是一个道理。这都三大机器人定律,谈不上是机器人设计中的目标或者未来发展的终极情况。就是围绕着:安全,创造价值,人工智能的可传递性,三这个目的。

所以机器人三大定律翻译成“人话”就是:(1)机器人不可以伤害人类——机器人要绝对的安全,人机协作的时候,机器人要能够感知到人类的存在,并且根据人类的动作,做出相应的判断,避免伤害到人。这一条定律,可以这么说吧!现在不是人类想不想遵守的问题,而是能不能实现的问题!不管是工业机器人,服务机器人,医疗机器人,用视觉图像,红外激光导航雷达,力觉传感器,安全光栅等等辅助零部件,或者辅助设备,不断地提高机器人的反应灵敏性,让机器人变得更安全。

现在的协作机器人,就是属于比较安全的工业机器人之一。家里的扫地机器人,就是使用的激光导航雷达,可以探知到障碍物,避免破坏家中的设备,甚至威胁到人。包括现在火热的无人驾驶技术,就是在不断的提高激光导航雷达的灵敏性,提高图像识别的速度,以便在汽车行驶中可以快速的看到“人类”。实现更安全。激光雷达在无人驾驶中的应用。

安全是机器人必须的特点,这都不需要所谓的机器人定律去规定,因为至于机器人安全,才能够被使用。才能创造价值,才能用于生产线。不然那就是一个危险的设备。2、机器人要具备可操控性——这就是让机器人为人类干活,创造价值这么说吧,尚且还没有机器人可以自己操控自己的“人工智能”。从最开始的工业机器人,示教编成,到后来服务机器人,采用语音,视觉的方式,人机对话。

服务机器人类似于,天猫精灵这种人机对话,可以为你服务的这种人工智能类产品。所以机器人的操控性,目前还在不断探索中,有很多的信息,语言,图像信息,机器人还没法感知。所以,操控性方面,还需要很长的一段时间才能够完善。人和协作机器人一起组装产品示教编程控制工业机器人3、机器人要要能够保护自己的存在——这是人工智能的核心。

按照人工智能的发展逻辑,机器人可以深度学习,自动的进行机器学习,实现智能的进化。但整个过程很漫长。因此,对于人工智能来说,要具有传承能力。也就是说,人工智能不可以完全无自我修复功能的消亡。因为这样,花费大价钱做的事情,就白做了。所以宏观上讲:机器人三大定律是当前机器人行业基本的中国规范,谈不上所谓的准守准守,放弃不放弃。

机器人如果违反三定律还能定义为机器人吗?

机器人三大定律,「机器人三定律」有逻辑缺陷吗

关于这个问题,中国科普博览邀请人工智能领域的大咖、SELF讲坛演讲嘉宾、中科院计算所陈云霁研究员来回答。2002年起,陈云霁从事国产处理器的研发工作, 先后负责或参与了多款龙芯处理器的设计。科学伦理必须对我们的科技产品的生产和使用,要进行一些限制,你不能随便去用它。我觉得这个机器和人之间的关系,是非常值得探索的。

比如首先,尤其像人工神经网络这样的技术,它的行为是有一定的这种不可预测性的。我们怎么让一个有具有不可预测性的这种人工智能算法,让它最后的行为又是能够符合某些确定的规范的呢?其实这背后是有很多科学问题的。阿西莫夫三原则或者三定律是:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。我觉得三定律可能是科幻小说家的一个想象而已,但是背后确实有它的哲学的思考,也可以查阅出很多实际的科学问题来。我觉得这些科学问题,未来是非常值得我们这些研究者去探索的,而且是非常有必要去探索的。因为毕竟我们去做人工智能的研究,也是为了让人类社会能够有,说白了就是能够大家生活得更幸福。

携带武器的无人机算不算机器人,如果算的话是否违反机器人三定律?

机器人三大定律,「机器人三定律」有逻辑缺陷吗

所谓的机器人三定律并不是真正存在的,仅仅是艾萨克·阿西莫夫在1942年发表的作品《转圈圈》中的一个设想。不过只是因为对于人类对智能机器的恐惧,机器人三定律才广为流传的。但这个东西并不是在工程学上实现的铁律,同时也没有被写入任何一个国家的法律中。用俗话说就是一句“屁话”。题主所想的无人机带武器的问题其实还是幼稚了。

韩国在38线附近部署了一种叫做宙斯盾的武器站。这其实就是智能机器人。当这个机器人的传感器发现目标人形的目标的时候会开始自动喊话,制止人形目标的移动,如果喊话三遍这个人形目标还继续移动的话,会直接启动上面的M2重机枪进行扫射。整个的行为完全是自主的。并不需要认为干涉。这就是处于某种目的设计出来的杀人机器。

不仅仅是韩国,目前很多国家都研制和装备带有武器的战场机器人。这里面一部分是通过人类利用远程遥控装置进行操作的,算不上是完全的人工智能机器人,还有一部分则是完全利用人工智能工作的自主武器机器人这玩意会自动的判断是否需要开火消灭人类。如果按照机器人三定律来说,上面的几个例子其实都是彻底的违背了机器人三定律。

但所谓的机器人三定律不是屁话吗?违背了也就违背了,无所谓了。和机器人三定律相左的则是各个国家军方的需求,军火商在军方的需求框架内提供产品,这本身就是一种“生意”。生意的最终目的是利益,在利益面前别说这种屁话了,就是很多法律都被践踏。所以说,可以预见的将来,很可能有全部是机器人组成的军队或者专门从事杀戮的大型机器人出现它们所维护的并不是所谓的机器人三定律,而是购买者的利益和需求。

文章TAG:机器人定律缺陷逻辑

最近更新