IT的道德与伦理

来源:互联网 发布:vb if 不等于 编辑:程序博客网 时间:2024/05/17 02:40

前言

很久以前看过阿西莫夫的《我,机器人》,里面的引言说的是“机器人学三大法则”,这令我印象深刻。

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管

LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外

LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存

但是又引起了我的思考,这三个定律看似十分正确,但是是否存在矛盾呢?

这里写图片描述


思考

一个很热门的问题,如果一部人工智能的火车遇到了这样的情形,左转车上的六个人就会没命,右转绑在轨道上的一个人就会没命,那么火车应该怎么做?功利主义者认为,六个人大于一个人,所以应该右转,而道德主义者会认为一个人同样是生命,所以应该不作为。但是无论如何,在碰到这种情况下,人们肯定会凭借着自己的直觉去选择,但是人工智能会吗?或许会吧,因为人工智能可以通过不同方式来学习人类,最后引用一句搜狐上看到的话,我们也无法去讨论在最坏的情况下,AI会做出什么样的选择,这可能就像是薛定谔的人工智能,在没发生以前,我们是永远不知道它会驶向何方。科技在不断的进步,然而进步中所发生的伦理问题却一直值得我们去深思。

原创粉丝点击