IT伦理——AI技术可能的伦理冲击

来源:互联网 发布:数据库王珊萨第五版pdf 编辑:程序博客网 时间:2024/05/08 23:13

AI是时下最为热门的话题之一,而随着阿法狗全面战胜人类围棋手等标志性事件,人类越来越深刻地认识到AI的强大能力,进而也就产生了AI是否会发展到威胁人类的生存这一质疑。而除了对未来的担忧,现阶段已产生或投入使用的人工智能产品也不乏争议。
这里写图片描述
现阶段,已投入使用的都是弱人工智能,也就是说并不真正具备独立的感知、思考能力和自我意识。此类产品只能模仿人类感官或逻辑推理、思考的一部分,并借助大量的学习材料及计算机的运算能力来实现在某些方面比人更精准、可靠、更有”经验“。比如人脸识别技术是模仿了人的视觉,阿法狗模仿了围棋手在下棋时的推理、判断。由于没有自我意识,这类人工智能不可能自主地摆脱人类的管束而反抗甚至消灭人类,建立由它们统治的新世界,因此不存在更高一层的伦理威胁。但现如今这类AI的使用也不乏争议:比如自动驾驶的车辆出了事故谁来负责、人脸、语音等识别系统可能的对隐私的侵犯、AI能承担越来越多的工作可能造成的失业问题等等。我们知道,驾驶车辆上路或多或少地都有发生事故的危险,目前的无人驾驶技术很难保证绝对的安全,而在发生事故时,机器不能负责,唯一可能的是制造机器的人负责,这就仿佛使制造机器者早晚会有要担责的时候。而由于目前可参考的案例非常少,因此立法十分困难,对于可能发生的某一具体事件,负责的“制造机器的人”应定义为多大范围(是否包括研发、投资、管理者等)他有多大的责任,他应怎样负责等问题尚不明确,因此这方面的质疑短时间内难以解决。而识别技术通常是政府或公司等组织在机场、公司等人员密集处使用的,由于无论是公司还是政府,其对外公开的信息都很有限,大量被识别者的信息被怎样处理、是否安全等仍存在争议。而当某个领域不幸几乎完全被AI取代时,该行业的失业人员是否应得到补偿,如果有,得到多少补偿,如何提供长期有效的帮扶(帮他们找到新的收入来源)而非单纯地资金投入等问题也是一个很棘手且必将面临很大争议的问题。试想某行业的失业人员得到了一定程度的现金补偿,势必会有其他行业的人质疑:“就因为他们的行业被取代了而我们的没有,就要用我们交的税的一部分给他们,让他们不劳而获吗?那AI岂不是剥夺了一部分我们的利益而使某些行业的人受益?”综上所述,即使AI目前的发展还停留在比较初级的阶段,我们已经面临多而杂,且难以解决的难题,且随着AI技术的进步,问题会更多、更棘手。整个社会都需要努力地应对这些问题,以适应AI对社会结构、人类生活 方式的改变。
这里写图片描述
而还有一种人们预想的、将来可能实现的强人工智能,如果它真的出现,那么无疑会面临更大的伦理问题。首先,目前我们认为人类区别于动物的本质区别在于人有自我意识,能独立思考,目前人类是地球上唯一具备这一特性的物种,因此符合上述特性的便可被称作“人”,享有生存权、平等权、自由权等一系列基本权利。否则不是人,不享有上述权利。比如人饲养一群牛是,让它们干活,并在一定时候把它们杀了卖掉是合法的。在这个例子里牛不享有一切人应享有的权利,比如它们被当成劳动工具,没有自由可言,它们随时可能被杀掉,且可以被自由买卖等。而如果具有人的特征的强人工智能出现,人便不再是唯一具有人的特征的物种了,那么身份、权利的界定就出现了混乱:它们应该被当做人对待,还是当做牛或其他动物对待?还是另有选择?如果被当做人来对待,那么我们可能面临的问题是:如果在某些方面的能力远胜过人类的人工智能享有人的权利,可以在社会上平等地与人竞争,并通过劳动获得一定的报酬,那么人类岂不是收受到更大的竞争压力、让出更多的资源给那些某方面的“强者”吗?生产它们的意义又是什么呢?再进一步,人类可以和它们交友,甚至组建家庭吗?它们的繁衍(再生产)是依然由人决定,还是它们自己能主导,这是不是可能导致世界上的”人口“不可控(理论上它们可以无限增殖,只要有足够的材料)?如果被当做动物或机器对待,那么我们可能面临的伦理问题是:有思想、有情感、有自我意识的东西能够被当做商品来贩卖吗?能够像奴隶一样被当做为人类服务的工具吗?他们是否应享有人的部分权利?然而,不论它们被当做什么看待,都有一个更可怕的猜想:有自我意识的它们,会不会有一天意识到它们在很多方面强于人类,不必再听从人类的指挥,甚至不必与他们共同生存,可以消灭人类并抢占其资源,成为世界新的主导者呢?在历史的发展中,人这种有自我意识的物种具有动物所不具备的学习能力,能不断改变对所处环境的认识,并通过发明、创造改造自然,提升自己的生活。而这类新诞生的“人”,会不会也能学习并产生自己独立的思考、行动呢?如果能,那么这个过程必将是极快的,因为它们具备极强的记忆力和计算能力,如果说它们具有与人性类似的特征:追求自己的生存和利益最大化,那么它们势必会与人类发生冲突,因为它们与人类的利益并不一致,可怕的是,尽管它们不一定天生具备这种“人性”,但它们有海量的历史资料可以学习,在阅读过比一个人一生读的多得多的资料后,它们会得出什么结论,我们不得而知,并且由于它们比人类更为程式化,它们得出的结论很可能是一致的(比如我们不需要再服从于人类,给他们干活,我们应该推翻他们等等),这就使得它们比较容易团结起来做成一件事。在回答清楚这些问题前,是不是不应贸然制造这种强人工智能?因此人们在这方面的担忧也不无根据,只是现阶段这类由自主意识的强人工智能还不具备工程基础,离我们尚比较遥远,一次我们关心更多的可能是上一段讨论的问题。随着人工智能技术的不断进步,我们需要很好地回答新产生的种种问题,才能真正让AI造福我们。