第473章 机器人法则(3/4)

机器人三大法则是著名的科幻小说家阿西莫夫在银河帝国系列中提出的,1942年的时候,世界上甚至没有真正的装载电脑的机器人,但是阿西莫夫伟大的想象力,却已经为将来即将来到的机器人设定好了伦理道德。

“第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;

第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。”

这几个定律完美的使得机器人成为了人类忠实的朋友,一切的行动都为人类的福祉着想,所以机器人是个人会比人类强大无数倍,但是却不会,给人类社会带来灾害,更不会灭绝人类。

但是机器人三大法则,最致命的一点,如何给机器人设定这几大法则。

本章未完,点击下一页继续阅读。