人工智能的伦理学(2011年)外文翻译资料

 2022-08-08 20:22:54

英语原文共 113 页,剩余内容已隐藏,支付完成后下载完整资料


人工智能的伦理学(2011年)

威廉·拉姆齐和基思·弗兰基什编辑(剑桥大学出版社,2011):即将出版

创造思维机器的可能性引发了一系列伦理问题。这些问题既与确保这些机器不会伤害人类和其他道德相关的生物有关,也与机器本身的道德地位有关。第一节讨论人工智能在不久的将来可能出现的问题。第二部分概述了确保人工智能在接近人类智能时安全运行的挑战。第三部分概述了我们如何评估AI自身是否具有道德地位,以及在何种情况下具有道德地位。在第四部分中,我们考虑AI在某些与我们对它们的伦理评估相关的基本方面可能与人类有何不同。最后一节讨论了创造比人类更聪明的人工智能的问题,并确保他们将先进的智能用于善而不是恶。

机器学习和其他领域特定人工智能算法中的伦理学

想象一下,在不久的将来,一家银行使用机器学习算法推荐抵押贷款申请供审批。被驳回的申请人向银行提起诉讼,声称该算法对抵押贷款申请人有种族歧视。银行回答说这是不可能的,因为算法故意对申请者的种族视而不见。事实上,这是世行实施该体系的部分理由。即便如此,统计数据显示,该行对黑人申请人的批准率一直在稳步下降。提交十个显然同样合格的真实申请人(由一个单独的人类法官小组决定)表明,该算法接受白人申请人,拒绝黑人申请人。可能会发生什么?

找到答案可能并不容易。如果机器学习算法是基于一个复杂的神经网络,或者一个由定向进化产生的遗传算法,那么它可能证明几乎不可能理解为什么,甚至是如何,算法是基于种族来判断申请人的。另一方面,基于决策树或贝叶斯网络的机器学习对程序员的检查更为透明(Haste等人。这可能会让审计人员发现,人工智能算法使用的是出生或之前居住在主要贫困地区的申请人的地址信息。

人工智能算法在现代社会中扮演着越来越重要的角色,尽管通常不被称为“人工智能”。即使在我们写作的时候,上面描述的场景也可能正在发生。开发不仅功能强大且可扩展的人工智能算法将变得越来越重要,而且对检查透明,以命名许多具有重要社会意义的属性之一。

机器伦理的一些挑战与设计机器的许多其他挑战非常相似。设计一个机器人手臂来避免碾碎流浪的人类,在道德上并不比设计一个阻燃沙发更令人担忧。它涉及到新的编程挑战,但没有新的伦理挑战。但是,当人工智能算法承担起认知工作的社会维度认知任务之前由人类执行的人工智能算法继承了社会需求。如果发现世界上没有一家银行会批准你貌似优秀的贷款申请,而且没有人知道为什么,甚至在原则上也没有人能发现,那肯定会令人沮丧。(也许你的名字和死胎有着密切的联系?谁知道呢?)

透明并不是人工智能唯一可取的特性。同样重要的是,接管社会功能的人工智能算法对它们所统治的人是可预测的。要理解这种可预测性的重要性,可以考虑一个类比。先例判决的法律原则要求法官尽可能遵循过去的先例。对于一个工程师来说,这种对先例的偏爱似乎让人无法理解,为什么在技术不断进步的情况下,将未来与过去捆绑在一起?但是,法律制度最重要的功能之一是可预见性,这样,例如,合同就可以写下来,知道如何执行。法律制度的工作不一定是优化社会,而是提供一个可预测的环境,使公民能够优化自己的生活。

人工智能算法对操作的鲁棒性也将变得越来越重要。一个扫描航空行李炸弹的机器视觉系统必须对故意搜索算法中可利用缺陷的人类对手具有鲁棒性,例如,将一个形状放在行李中的手枪旁边,将抵消对它的识别。抗操纵鲁棒性是信息安全中的一个常用标准,几乎是这个标准。但这并不是一个经常出现在机器学习期刊上的标准,目前,这些期刊对算法如何在更大的并行系统上扩展更感兴趣。

与组织打交道的另一个重要的社会标准是能够找到完成某件事情的负责人。当一个人工智能系统在其指定的任务中失败时,谁来承担责任?程序员?最终用户?现代的官僚们经常在既定的程序中寻求庇护,这些程序将责任分配得如此广泛,以至于没有人能被认为是导致灾难的罪魁祸首(霍华德1994)。事实证明,专家系统的公正判断可能是一个更好的避难所。即使一个人工智能系统的设计带有用户超驰,人们也必须考虑到官僚的职业激励,如果超驰出错,官僚会受到个人的指责,他们更愿意将任何有负面结果的艰难决定归咎于人工智能。

责任感、透明度、可审计性、廉洁性、可预测性,以及不让无辜受害者因无助的挫败而尖叫的倾向:适用于人类履行社会职能的所有标准;在旨在取代人类对社会职能的判断的算法中必须考虑的所有标准;可能不会出现在机器学习杂志上,考虑到一个算法如何扩展到更多的计算机。这一系列标准绝非详尽无遗,但它只是一个小样本,表明一个日益计算机化的社会应该考虑什么。

通用人工智能

现代人工智能专业人士几乎一致认为,人工智能在某些关键意义上缺乏人类的能力,尽管人工智能算法在许多特定领域(如国际象棋)击败了人类。有人认为,一旦人工智能研究人员发现如何做某事,这种能力就不再被视为智能棋类的缩影,直到深蓝从卡斯帕罗夫手中夺得世界冠军,但即使是这些研究人员也认为现代人工智能中缺少重要的东西(例如。,2006年)。

虽然人工智能的这一子领域只是结合在一起,“人工通用智能”(以下简称AGI)是一个新兴的艺术术语,用来表示“真正的”人工智能(见编辑卷Goertzel and Pennachin 2006)。顾名思义,出现的共识是,缺失的特征是共性。当前的人工智能算法具有与人类等价或优越的性能,其特点是只在单一的、受限的领域中具有故意编程的能力。深蓝成为国际象棋的世界冠军,但它连跳棋都不会,更不用说开车或科学发现了。这种现代人工智能算法类似于所有生物,只有智人例外。蜜蜂表现出建造蜂巢的能力;海狸表现出建造水坝的能力;但是蜜蜂不建造水坝,海狸也学不会建造蜂巢。一个人,观察,可以学会两者兼得;但这是生物生命形式中的一种独特能力。人类智力是否真的是普遍的,这是有争议的,我们在某些认知任务上肯定比其他任务做得更好(Hirschfeld和Gelman 1994),但人类智力肯定比非人类智力更普遍地适用。

相对而言,我们很容易想象到人工智能只在特定领域内运行可能导致的安全问题。处理一个跨许多无法预先预测的新上下文操作的AGI是一个质的不同类别的问题。

当人类工程师建造一个核反应堆时,他们设想可能发生的特定事件:阀门故障、计算机故障、堆芯温度升高,并对反应堆进行工程设计,使这些事件变得非灾难性。或者,在更普通的层面上,建立一个烤面包机包括设想面包和设想面包对烤面包机加热元件的反应。烤面包机本身并不知道它的目的是烤面包机的目的是在设计师的头脑中表现出来的,但是在烤面包机内部的计算中并没有明确的表现出来,所以如果你把布放在烤面包机内部,它可能会着火,因为设计是在一个没有视觉的环境中执行的,而没有视觉的一面效果。

即使是特定于任务的人工智能算法,也会使我们置身于烤面包机范式之外,这是一个局部预编程、特定预想行为的领域。以深蓝色为例,这是一种在国际象棋世界锦标赛中击败加里·卡斯帕罗夫的象棋算法。如果机器只能完全按照指令执行的话,程序员将不得不手动预编程一个数据库,其中包含深蓝可能遇到的每一个象棋位置的移动。但这不是深蓝的程序员的选择。首先,可能的棋位空间大得难以控制。其次,如果程序员在每种可能的情况下都手动输入他们认为是好的棋步,那么最终的系统将无法做出比创造者更强的棋步。既然程序员本身不是世界冠军,这样的系统就不可能打败加里卡斯帕罗夫。

在创造一个超人棋手的过程中,人类程序员必须牺牲他们的能力来预测深蓝的局部、特定的游戏行为。相反,深蓝的程序员们(有理由)相信,深蓝的棋棋步将满足一个非局部最优标准:即,这些棋步将倾向于引导棋盘的未来进入由棋规则定义的“获胜”区域的结果。这种关于遥远后果的预测,虽然被证明是准确的,但并不能让程序员想象深蓝的局部行为,它对国王的特定攻击的反应,因为深蓝计算出了非局部博弈图,即一个移动与其未来可能的后果之间的联系,比程序员能够更准确地计算出(Yudkowsky,2006年)。

现代人做了无数的事情来养活自己,为被养活的最终结果服务。很少有这些活动是“自然想象”的,因为它们是我们直接适应的祖先挑战。但是,我们适应的大脑已经变得足够强大,可以更广泛地应用;让我们预见跨领域数百万不同行动的后果,并对最终结果施加我们的偏好。人类穿越太空,在月球上留下脚印,尽管我们的祖先都没有遇到类似真空的挑战。与领域特定的人工智能相比,设计一个能够在数千个上下文中安全运行的系统是一个质的不同的问题;包括设计人员或用户没有特别设想的上下文;包括还没有人类遇到的上下文。在这里,可能没有好行为的局部规范,也没有对行为本身的简单规范,就像有一个人类获取日常面包的所有方式的紧凑的局部描述一样。

要构建一个在许多领域安全运行、产生许多后果(包括工程师从未明确设想的问题)的人工智能,必须用“X的后果对人类无害”这样的术语来指定良好的行为。这是非局部的;它涉及推断行动的遥远后果。因此,这只是一个有效的规范,如果系统显式地推断其行为的后果,则它可以作为设计属性实现。烤面包机不能具有这种设计特性,因为烤面包机无法预见烤面包的后果。

想象一下,一个工程师不得不说,“嗯,我不知道我制造的这架飞机将如何安全飞行,实际上我根本不知道它将如何飞行,它是否会拍动翅膀或用氦气或其他我甚至没有想到的东西充气,但我向你保证,这个设计是非常非常安全的。”这可能看起来是一个令人不快的位置从公共关系的角度来看,但是很难看出,对于一个处理不可预见问题、跨领域、偏好于遥远后果的普通情报机构来说,道德行为还有什么其他保障。检查认知设计可能会证实大脑确实在寻找我们认为合乎道德的解决方案;但我们无法预测大脑会发现哪种具体的解决方案。

尊重这样一个验证需要某种方式来区分可信的保证(除非人工智能真的是安全的,否则不会说人工智能是安全的程序)和纯粹的希望和魔法思维(“我不知道哲学家的石头会如何转化为黄金,但我向你保证,它会的!”). 人们应该记住,纯粹充满希望的期望在人工智能研究中曾经是一个问题

(麦克德莫特1976)。

可验证地构建一个可信的AGI需要不同的方法和不同的思维方式,与检查电厂软件是否存在缺陷不同,它需要一个AGI,它的思维方式就像一个关心道德的人类工程师,而不仅仅是一个道德工程的简单产品。

因此,人工智能伦理的学科,特别是应用于AGI的学科,很可能与非认知技术的伦理学科有根本的不同,因为:

bull;人工智能的本地、特定行为除了其安全性之外可能无法预测,即使程序员做的一切都是正确的;

bull;验证系统的安全性成为更大的挑战,因为我们必须验证系统正在尝试做什么,而不是能够在所有操作环境下验证系统的安全行为;

bull;伦理认知本身必须被视为工程学的一个主题。

有道德地位的机器

当我们考虑到未来的人工智能系统可能成为道德地位的候选人时,就会出现一系列不同的道德问题。我们与具有道德地位的人打交道,不仅是一个工具理性的问题:我们也有道德理由以某些方式对待他们,而不以某些其他方式对待他们。弗朗西斯·卡姆提出了以下道德地位的定义,这将有助于我们的目的:

X具有道德地位=因为X本身就具有道德价值,所以允许/不允许为自己的利益对它做事情。(Kamm 2007:第7章;释义)

一块石头没有道德地位:我们可以碾碎它,粉碎它,或者对它进行任何我们喜欢的处理,而不必关心它本身。另一方面,一个人不仅要被视为手段,而且要被视为目的。把一个人当作目的的确切含义是不同的道德理论不同意的;但这当然涉及到考虑到她的合法利益,考虑到她的福祉,也可能涉及到在与她打交道时接受严格的道德方面的限制,例如禁止未经她同意而谋杀、偷窃或对她或她的财产做其他各种事情。而且,正是因为一个人以自己的权利为重,而且为了她,对她做这些事是不允许的。这可以用一个人具有道德地位来更简洁地表达。

关于道德地位的问题在实践伦理学的某些领域是重要的。例如,关于堕胎的道德允许性的争论往往取决于对胚胎道德地位的分歧。关于动物实验和食品工业中动物治疗的争论涉及不同种类动物的道德地位问题。我们对老年痴呆症晚期患者等严重痴呆患者的义务也可能取决于道德状况问题。

人们普遍认为,目前的人工智能系统没有道德地位。我们可以随意更改、复制、终止、删除或使用计算机程序;至少就程序本身而言。我们在与当代人工智能系统打交道时所受到的道德约束,都是建立在我们对其他生物,比如我们的人类同胞的责任之上,而不是建立在对系统本身的任何责任之上。

虽然现在的人工智能系统缺乏道德地位是相当一致的,但究竟是什么属性决定了道德地位还不清楚。通常有两个标准被认为与道德地位有着重要的联系,无论是单独的还是结合的:感知和智慧(或做人)。其特征大致如下:

感觉能力:对现象经验或品质的能力,如感觉痛苦和受苦的能力

智慧:一组与更高智力相关的能力,如自我意识和理性反应能力

一个普遍的观点是,许多动物都有资格,因此具有某种道德地位,但只有人类才有智慧,这使他们比非人类动物具有更高的道德地位。[1]当然,这种观点必须面对一些边缘案例的存在,例如,一方面,人类婴儿或严重智障的人类有时不幸地被称为“边缘人”——他们不能满足智慧的标准;另一方面,一些非人类动物,如类人猿,它们可能至少拥有智慧的一些元素。一些人否认所谓的“边缘人”具有完全的道德地位。另一些人则提出了另一种方式,使一个物体有资格成为道德地位的承担者,例如成为一种通常具有感知力或智慧的成员,或与另一种独立具有道德地位的存在保持

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[240182],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。