AI与伦理道德

来源:互联网 发布:ubuntu 查看分区格式 编辑:程序博客网 时间:2024/04/28 22:26

“我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。”

“人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。”

——史蒂芬·霍金
这里写图片描述

去年年初,昆山市政府公布了一份富士康工厂的机械化数据:自从2014年iPhone 6上市至今,富士康已经使用机器人(18.800, 0.22, 1.18%)(又或者是机械手臂)取代了超过一半的工人,当地工人数量由11万人减少到了5万人。“工人的饭碗会不会被机器人给抢走了?”这是机器人大规模进入企业引发的无数劳动者的担忧。

  而在去年3月9日,世界冠军、韩国棋手李世石与谷歌“阿尔法狗”(AlphaGo) 在首尔上演的围棋“人机大战”和今年年初AI机器人AlphaGO的改进型Master再次完胜人类围棋顶尖高手,更是引起科学界及社会各界的高度关注和伦理上的争议,原因就在于人们对人工智能超越人类智慧的恐惧与担忧。

  目前,无论是学术界,还是工业界,研究人员都对人工智能带来的伦理挑战进行了大量研究,最新消息显示,微软、谷歌等公司已经成立了人工智能伦理委员会,希望能对这一问题提出解决方案。

人工智能的发展对人类来说既是机遇又是挑战。现在最普遍的一个问题:

人工智能是否会超越人类

这里写图片描述
  去年和今年两次的围棋“人机大战”都以人类失败告终,这让许多人质疑人类智慧不如机器,人类可能被人工智能所取代。随着技术的发展,人工智能在陪伴机器人领域中的应用已走入越来越多的家庭,机器承担着越来越多(来自人类)的决策任务,更多人担忧的是,有一天会不会真出现如美国大片里机器人失控追杀人类的场面?

  人工智能技术正变得越来越强大,那些最早开发和部署机器学习、人工智能的企业现在也开始公开讨论其创造的智能机器给伦理道德带来的挑战。

  针对“人机大战”的两次惨败,计算机科学国家重点实验室主任林惠民认为,人工智能是个复杂概念,有些人工智能处理的是“可测度”的问题,比如各种棋类游戏,不论多复杂,规则是确定的,变化是有限的。计算资源和算法强到一定程度,电脑在计算上总是会胜过人类。但很多领域是不可测度的,包括人的创造力。比如google下棋赢了人,但是设计下棋程序的还是人。

  “机器学习、深度学习发展很快,新的算法层出不穷。这个人工智能与多年前的深蓝电脑不一样。当时人们觉得,如果让深蓝来下围棋,它还太小儿科。而如今,人工智能已经可以战胜人类了。”中科院院士吴一戎说,“不过,我觉得人工智能对人类有威胁还是一件很遥远的事情。等我们发展到了这个程度,自然会有相应的科学伦理出台。目前我们要做的,就是跟上人工智能的发展步伐,它将对我们的社会产生深刻的影响。”

  在《麻省理工科技评论》的EmTech峰会上,微软研究院的常务董事埃里克?霍维茨(Eric Horvitz)说:“我们正处于人工智能的转折点,人工智能理应受到人类道德的约束和保护。”

  其实,去年一年,无论是在学术界还是在工业界,研究人员都对机器学习和人工智能所带来的伦理挑战做了大量研究。加州大学伯克利分校、哈佛大学、剑桥大学、牛津大学和一些研究院都启动了相关项目以应对人工智能对伦理和安全带来的挑战。而亚马逊、微软、谷歌、IBM和Facebook则联合成立了一家非营利性的人工智能合作组织(Partnership on AI)以解决此问题(苹果于2017年1月加入该组织)。

  这些公司也正在各自采取相应的技术安全保障措施。谷歌的研究员玛雅?古帕(Maya Gupta)强调谷歌的研究人员正在测试如何纠正机器学习模型的偏差,如何避免模型产生偏见。“机器学习是可控制的,是精确的,是可用统计学来衡量的。并且,这里存在着很多让社会变得更加公正、更加道德的可能性。”

这里写图片描述

看看大牛们怎么说吧

  科学家:

  物理学家斯蒂芬威廉霍金(Stephen William Hawking):文明所产生的一切都是人类智能的产物,从国际象棋和围棋人机大战的结果来看,生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了“计算机在理论上可以模仿人类智能,然后超越”这一原则。人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

  斯坦福大学计算机科学院教授、谷歌首席科学家Yoav Shoham:未来人与机器的界限会越来越模糊,当人和机器融为一体了,就不存在机器会取代人的一个过程。

  企业家:

  微软CEO 萨提亚纳德拉(Satya Nadella):未来的AI世界,人和机器的关系不是非此即彼,而应该是人机携手,共创未来。

  谷歌CEO桑达尔皮查伊(Sundar Pichai):关于AI反噬人类的担忧,从长远来看,AI必将提高人类的生活质量。

  百度公司创始人李彦宏:人工智能等技术其实没有这么可怕,可以为人们所用,基本上只是披着狼皮的羊。

  创新工场创始人李开复:人类面临最大的问题是失业,而不是被机器取代以及机器有了意识去控制人类。

  学者:

  哈佛法学院互联网法学教授Jonathan Zittrain:我担心随着系统的复杂性和紧密耦合性越来越高,人类的自主性会越来越少。如果“我们设定规则又忘记了规则”,我们会对系统如何进化感到懊悔。在那种情况下,甚至于伦理道德都无从考虑。

  中国社会科学院哲学研究所研究员甘绍平:机器人与具有自由选择能力的人有根本的区别。前者的行为取决于原因,后者的自主决断取决于理由,而决定意味着对不同理由的思考和选择。原因从属于自然界的必然性,理由则起源于人际交往、社会关联的运行规则和对文化历史经验累积的反思与醒悟。道德选择的前提是自由意志。意志自由只属于能够对理由进行思考、判定、权衡与抉择的人。机器人不可能拥有自由意志,也不可能具备伦理决策的理解力。