那是很倒霉的事情,有几个可以保住命的。
还有就是救火的时候,我们看电视新闻,说消防员为了扑灭大伙壮烈牺牲,如果有机器人去扑火,不就是避免了这种情况发生了吗?
还有就是营救员,比如去高山上去营救。
在高山上环境非常恶劣,能遇见各种危险,比如发生暴风雪,比如发生雪山崩塌,比如出现缺氧情况等等。
在高山救援其实是很危险的,如果让机器人去完成这个工作,是不是就能减少死亡了呢,而且成功率还高。
等等。
机器人可以用来救人,也可以用来杀人,以后的战场上会有越来越多的机器人参加。
那个时候可能要比拼的是机器人的数量,技术,还有品种了。
终究比拼到最后是财力的竞争。
要说减速器是硬件,相当于人类的躯体,至于软件,就相当于人类的灵魂。
软件一共有四大定律在制约着机器人,这四大定律分别是零定律和三大定律。
这四大定律就是框架,机器人必须在这四个框架之下活动,就犹如我们的法律,我们也是生活在法律的框架之下。
我们越过法律就会受到惩罚,至于机器人,永远都不能越过四大定律,如果越过了……就会出大事情的。
我们先看看零定律,,零定律就是机器人必须保护人类的整体利益不受到伤害。
这么一看是从大局观上出发,要保护绝大多数人的利益。
其实法律也是一样的,也是要保护绝大多数人的利益。
看起来是一样的,不过还是有区别的,我们人类是有感情的,机器人可是没有感情。
如果牺牲一个人可以救一百人,那么机器人会牺牲这一个人。
因为救一百个人符合零定律。
但是我们人类呢,怎么选择呢?
可能会有不同的选择。
那一百个固然应该去救,难道那一个人就该死吗?
可以看出来零定律是有问题的。
所以为了完善零定律,又在零定律的基础上又定了三大定律。
第一定律就是不能伤害人类,也不能目睹人类受到伤害而无动于衷。
这还是有缺陷的,什么叫不能伤害人类呢?
是不是只要不伤害人类就可以了,那如果困住人类呢?
把人类驱逐到沙漠呢?
虽然没有直接伤害人类,但是也间接伤害到了人类。
所以这个伤害面非常广,有直接伤害有间接伤害。
所以还要逐步完善。
第二定律是机器人比如服从人的命令,前提是这个命令不能和现有的法律相冲突。
这样如果机器人要把你驱逐到沙漠之中,你就可以直接给机器人下大命令,让它把你送离沙漠。
就算是机器人,它们的行为准则也必须在法律允许的范围之内行动。
没有任何的例外。