《自然》:走出AI伦理困境,从迷失本性到军备竞赛

来源:互联网 发布:大数据服务器配置 编辑:程序博客网 时间:2024/04/27 05:41


近日在《自然》杂志上的一篇文章中,科学家针对AI面临的四大困境提出建议:隐私和用户协议、代理和身份验证、平等与制约、偏见。


AI(人工智能)的相关技术在近几年的突飞猛进,使其真正走出科研,走向各个产业,进入商业化阶段。人们在畅想AI给未来人类生产生活带来的诸多正面影响的同时,也在警惕其在道德与伦理方面存在的各种问题,尤其是AI可能加剧社会不平等,为企业、黑客、政府或其他任何人提供利用和操纵他人的新方法。《自然》杂志最近刊登了一篇文章,呈现出了学者们对这一未来场景的忧虑,针对这一现象,学者们提出了四点建议,希望能够利用神经技术来造福人类。

转载自《自然》(Nature)杂志,欢迎阅读文章。



想象一下这样的场景:

一个已经瘫痪的人参加了一个脑机接口(BCI)的试验。他可以通过一台与他大脑中经过训练的芯片相连接的电脑,来解释其大脑活动所产生的神经活动,并通过计算机生成指令来移动机械臂。有一天,他对试验团队的成果感到非常沮丧。然后,当他控制机械手臂从一个研究助理手中接过一个杯子时,伤害了这个助手。为什么会这样?是设备出现了故障?还是他自己的情绪也起到了一定的作用?

虽然场景是假设的,但它呈现出了社会可能会面临的一些挑战。

目前,脑机接口技术的研究主要集中在治疗效果上,比如帮助脊髓损伤者等执行相对简单的运动任务——移动电脑光标或控制电动轮椅。此外,研究人员也已经可以从功能磁共振成像扫描中来对一个人的神经活动进行简单解读——即他正在思考一个人,而不是一辆汽车。

脑机接口技术和其他神经技术成为我们日常生活的一部分,可能只需要数年甚至几十年。但技术的发展意味着,我们正走向另一个世界。在这个世界里,人们可以破译人的心理过程,直接操纵他们的意图、情感和作出决定等背后的大脑机制;在这个世界里,个人可以通过思维直接与他人交流;强大的计算系统直接与人的大脑相连,帮助他们更好地与世界互动,使他们的精神和身体机能得到极大的增强。

这些进步可能会彻底改变许多疾病的治疗方法,从脑损伤、瘫痪到癫痫和精神分裂症,并给人们带来更好的体验。但也可能加剧社会不平等,为企业、黑客、政府或其他任何人提供利用和操纵他人的新方法。同样,它也可能会深刻地改变人类的一些核心特征:私人的精神生活、个人的代理和对个人作为被其身体约束的实体的理解。

现在,考虑这项技术发展带来的潜在后果是至关重要的。我们认为,现有的道德准则不足以应对这样的未来,为了解决这一空缺的问题,我们在此列出与以下四个方面有关的建议:

隐私和用户协议、代理和身份验证、平等与制约、以及偏见。

不同的国家和不同宗教、不同种族和不同社会经济背景的人将会有不同的需求和不同的未来。因此,各国政府必须设立自己的审议机构,来决定如何将这些指导原则转化为政策,包括具体的法律法规。

隐私和用户协议

麻省理工学院的研究人员在2015年发现,对人们的运动行为进行精细分析,比如每个人在个人设备上的键盘输入模式,可以作为诊断帕金森病的迹象。2017年的一项研究表明,移动模式的测量方法,比如从那些在日常生活中携带智能手机的人中获得的数据,可以用来诊断引起老年痴呆症的认知障碍的早期迹象。

如果能利用神经信息相关的数据——例如,与特定的注意力状态相关的神经元的活动模式,并用于投放广告、计算保险费或匹配潜在合作伙伴的算法中,将会使它们变得更强大。不过,神经设备一旦联网,则会给个人或组织(黑客、企业或政府机构)提供追踪甚至操纵一个人的精神体验的可能性。

我们认为,公民应该有能力、也有权利保证他们的神经数据隐私。我们建议采取以下措施来确保这一点。

对于所有的神经数据,不予分享应该是默认的选择,并会得到严格的保护。在诸如提供网页浏览,社交媒体或娱乐的商业服务提供商面前,人们很容易就放弃了隐私权,但他们并不完全理解这代表着什么。在神经数据领域,这样的做法是不可行的。个人需要对自己的数据有控制权。这需要各方力量的一起参与进来,制定一个关于谁将使用这些数据、以什么目的使用,以及使用多长时间等方面的许可程序。

即使这样,结合一些愿意分享的人的神经数据和大量的非神经数据,也可以得出一些具有普遍性意义的结论,在那些不愿意分享的人身上依旧能成立。为解决这一问题,我们建议对神经数据的销售、商业变现和使用进行严格监管。

另一种保护措施是限制神经数据的集中化处理。我们提倡使用分布式机器学习这样的计算技术来保护用户隐私。使用其他专门用来保护人们数据的技术也会有所帮助。例如,基于区块链的技术可以让数据被追踪和审计,而“智能合约”的存在也让数据的使用变得透明化,从而不需要集中处理。最后,开放的数据格式和开源代码也会产生相应的帮助。

当科技公司使用机器学习技术来改进他们的软件时,他们通常会在自己的服务器上收集用户信息,以分析某一特定服务的使用情况,然后使用聚合数据对新算法进行培训。谷歌的研究人员正在试验一种叫做Federated Learning的训练人工智能的方法。在这里,训练过程在每个用户的设备上进行,而不需要集中数据:训练结果的数据(例如,“每周”可以用作形容词和副词的知识)会被送回谷歌的服务器,但实际的电子邮件、文本等仍然保留在用户自己的手机上。其他公司也在探索类似的想法。因此,改进设计的信息系统可以用于增强用户的个人数据所有权和隐私,同时还能在这些数据上进行有价值的计算。

代理和身份验证

有些人通过在大脑中植入电极来进行脑深部刺激,他们感到自己的身份和身份被改变了。在2016年的一项研究中,一名曾用脑刺激器治疗抑郁症长达7年之久的人在一个焦点小组中报告称,他开始怀疑自己与他人互动的方式总是怪怪的。是设备造成的?还是抑郁?还是他内心深处的一些东西?他说:“我不确定我是谁。”

神经技术可以明显地扰乱人们的自我认同感和能动性,这会动摇人们自我本质和个人责任的核心假设——不管是法律上的还是道德上的。

如果机器学习和脑机接口设备能够更快地帮人在意图和行动之间进行转换,那么人们最终可能会以一种他们难以描述的方式来表现自己。也许,可能是通过一种类似于“自动完成”或“自动纠正”的功能来实现的。如果人们可以通过他们的思想在很远的地方控制设备,或者是如果几个大脑被连接到一起工作,那么我们对自己是谁以及我们在哪里行动的理解就会被打乱。

随着神经技术的发展,政府和其他机构开始努力赋予人们新的能力,个人身份(我们的身体和精神的完整性)和代理(我们选择行动的能力)必须作为一种基本的人权被保护起来。

我们建议在1948年《世界人权宣言》等国际条约中加入保护这些权利的条款(“神经系统”)。然而,这可能还不够——国际声明和法律只是国家之间的协议,甚至世界宣言也没有法律约束力。因此,我们主张建立一项国际公约,以定义与神经技术和机器智能相关的违禁行为,类似于2010年《保护所有人免遭强迫失踪国际公约》所列的禁令。可以成立一个相关的联合国工作小组审查签署国的遵守情况,并在需要时建议发出制裁。

这样的声明还必须保护人们对神经技术可能对认知和情感影响知情权。目前,知情同意书通常只关注于手术的物理风险,而没有设备对情绪、个性或自我意识的可能影响。

平等与制约

如果一些人的身体或大脑与其他大多数人的不同,会形成一种偏见。随着神经技术的采用——那些能让人们从根本上扩大其耐力、感官或心智能力的技术——可能会改变社会规范,会引发一种新的公平感问题,谁能获取?谁不能获取?那些能够增强自身能力的人,会不会歧视那些没有的人?这也很可能在会成为划分社会阶层的重要标准。

此外也很容易能够想到,这会引发新的军备竞赛。近年来,我们听到美国国防部高级研究计划局和美国情报高级研究项目活动的工作人员讨论了为士兵和参谋人员提供增强心智能力的计划(“超级智能代理”)。这些将用于作战设置,并帮助更好地破译数据流。

考虑到我们现在很难预测出来哪些方面的神经技术会对人类生活产生负面影响,但国际和国家层面上需要制定指导方针,对可实施的增强神经技术加以限制,并对可使用的环境进行规范——就像对人类基因编辑所做的那样。

在某些文化中,隐私和个性化可能会更受重视。因此,在尊重普遍权利和全球准则的同时,必须在特定的文化背景下作出监管决定。此外,如果彻底禁止某些技术的话,可能只会把它们推到“地下”,因此制定具体法律和法规的努力,必须包括有组织的论坛,以进行深入和公开的辩论。

而且,这些努力应该借鉴国际社会共识的许多先例,并将公众意见纳入国家层面的科学决策中。例如,第一次世界大战后,1925年的一次会议促成了《日内瓦公约》,该条约禁止使用化学武器和生物武器。同样,在第二次世界大战后,联合国原子能委员会成立,目的是为了和平目的使用原子能,并控制核武器的扩散。

特别是,我们建议对军事用途的神经技术进行严格的监管。出于显而易见的原因,任何杜绝都应该是全球性的,并由一个由联合国牵头的委员会发起。尽管这些努力可能无法解决所有的问题,但它们能够提供一种解决方式,发出声音、公开呼吁保持克制,并广泛投入到技术的开发和实施中。

偏见

当基于特定阶层的系统、结构或社会概念和规范作出科学或技术决策时,往往只是为自己阶层的人群提供特权,这会对其他群体造成伤害。2015年的一项研究发现,谷歌广告算法向女性用户展示的职位招聘信息,比向男性展示的薪酬要低。同样,ProPublica的一项调查显示,去年美国执法机构使用的算法错误地预测,黑人被告比拥有类似犯罪记录的白人被告更有可能再次犯罪。这种偏见可能会在神经设备中出现。的确,研究过这类案例的研究人员已经证明,想要用严谨的数学方式定义公平是非常困难的。

业界和学术界已经开始讨论如何在技术上对抗偏见。从广义上来说,这种正在进行的公开讨论和辩论对于界定问题偏见的定义,是正常的,是必要的。

我们提倡,在机器学习中对抗偏见要常态化。我们还建议,在进行算法和设备设备的时候,要加大对小众或者边缘化的群体有所照顾,给予同样的注意力。

在这些建议中,有很多都是呼吁行业和学术研究人员承担起相应的责任。

但历史表明,在企业界,追逐利润往往胜过社会责任。而且,即使在个人层面上,大多数技术专家本意是为人类造福,但他们通常会面临复杂的道德困境。我们认为,应该对相关的从业人员进行规范化的培训,教导他们如何更深入地思考如何部署对社会有建设性贡献的策略,而不是对社会带来负面影响。

这种方法和医学领域的培训比较类似。医学专业的学生被教导关于病人的保密、非伤害及他们的善行和正义的义务,并要求他们遵循希波拉克的誓言来遵守最高的职业标准。

神经技术的临床和社会效益是巨大的。要收获这些,我们必须采取必要的措施来引导它向一个好的方向发展。



原创粉丝点击