算法的伦理:映射讨论外文翻译资料

 2022-12-22 17:39:49

The ethics of algorithms: Mapping the debate

Abstract :In information societies, operations, decisions and choices previously left to humans are increasingly dele- gated to algorithms, which may advise, if not decide, about how data should be interpreted and what actions should be taken as a result.Examples abound. Profiling and classification algorithms determine how individuals and groups are shaped and managed (Floridi, 2012). Recommendation systems give users directions about when and how to exercise, what to buy, which route to take, and who to contact (Vries, 2010: 81). Data mining algorithms are said to show promise in helping make sense of emerging streams of behavioural data generated by the lsquo;Internet of Thingsrsquo; (Portmess and Tower, 2014: 1). Online service providers continue to mediate how information is accessed with personalisation and filtering algorithms (Newell and Marabelli, 2015; Taddeo and Floridi, 2015). Machine learning algorithms automatically identify misleading, biased or inaccurate knowledge at the point of creation (e.g. Wikipediarsquo;s Objective Revision Evaluation Service). As these examples suggest, how we perceive and understand our environments and interact with them and each other is increasingly mediated by algorithms.

Keywords :Algorithms, automation;Big Data,;data analytics,;data mining,;ethics;machine learning

Algorithms are inescapably value-laden (Brey and Soraker, 2009; Wiener, 1988). Operational parameters are specified by developers and configured by users with desired outcomes in mind that privilege some values and interests over others (cf. Friedman and Nissenbaum, 1996; Johnson, 2006; Kraemer et al., 2011; Nakamura, 2013). At the same time, operation within accepted parameters does not guarantee ethic- ally acceptable behaviour. This is shown, for example, by profiling algorithms that inadvertently discriminate against marginalised populations (Barocas and Selbst, 2015; Birrer, 2005), as seen in delivery of online advertisements according to perceived ethnicity (Sweeney, 2013).

Determining the potential and actual ethical impact of an algorithm is difficult for many reasons. Identifying the influence of human subjectivity in algorithm design and configuration often requires investigation of long-term, multi-user development processes. Even with sufficient resources, problems and underlying values will often not be apparent until a problematic use case arises. Learning algorithms, often quoted as the lsquo;futurersquo; of algorithms and analytics (Tutt, 2016), introduce uncertainty over how and why decisions are made due to their capacity to tweak operational parameters and decision-making rules lsquo;in the wildrsquo; (Burrell, 2016). Determining whether a particular problematic decision is merely a one-off lsquo;bugrsquo; or evidence of a systemic failure or bias may be impossible (or at least highly difficult) with poorly interpretable and predict- able learning algorithms. Such challenges are set to grow, as algorithms increase in complexity and interact with each otherrsquo;s outputs to take decisions (Tutt, 2016). The resulting gap between the design and operation of algorithms and our understanding of their ethical implications can have severe consequences affecting individuals, groups and whole segments of a society.

In this paper, we map the ethical problems prompted by algorithmic decision-making. The paper answers two questions: what kinds of ethical issues are raised by algorithms? And, how do these issues apply to algorithms themselves, as opposed to technologies built upon algorithms? We first propose a conceptual map based on six kinds of concerns that are jointly sufficient for a principled organisation of the field. We argue that the map allows for a more rigorous diagnosis of ethical challenges related to the use of algorithms. We then review the scientific literature discussing ethical aspects of algorithms to assess the utility and accuracy of the proposed map. Seven themes emerged from the literature that demonstrate how the concerns defined in the proposed map arise in practice. Together, the map and review provide a common structure for future discus- sion of the ethics of algorithms. In the final section of the paper we assess the fit between the proposed map and themes currently raised in the reviewed literature to identify areas of the lsquo;ethics of algorithmsrsquo; requiring further research. The conceptual framework, review and critical analysis offered in this paper aim to inform future ethical inquiry, development, and governance of algorithms.

To map the ethics of algorithms, we must first define some key terms. lsquo;Algorithmrsquo; has an array of meanings across computer science, mathematics and public discourse. As Hill explains, lsquo;lsquo;we see evidence that any procedure or decision process, however ill-defined, can be called an lsquo;algorithmrsquo; in the press and in public discourse. We hear, in the news, of lsquo;algorithmsrsquo; that suggest potential mates for single people and algorithms that detect trends of financial benefit to marketers, with the implication that these algorithms may be right or wrong. . .rsquo;rsquo; (Hill, 2015: 36). Many scholarly critiques also fail to specify technical categories or a formal definition of lsquo;algorithmrsquo; (Burrell, 2016; Kitchin, 2016). In both cases the term is used not in reference to the algorithm as a mathematical construct, but rather the implementation and inter- action of one or more algorithms in a particular pro- gram, software or information system. Any attempt to map an lsquo;ethics of algorithmsrsquo; must address this conflation between formal definitions and popular usage of lsquo;algorithmrsquo;.

Here, we follow Hillrsquo;s (2015: 47) formal definition of an algorithm as a mathematical construct with lsquo;lsquo;a finite, abstract, effective, compound control structure, imperatively given, accomplishing a given purpose under given provisions.rsquo;rsquo; However, our investigation will not be limited to algorithms as mathematical con- str

剩余内容已隐藏,支付完成后下载完整资料


算法的伦理:映射讨论

摘要:在信息社会中,以前留给人类的操作、决策和选择越来越多地委托给算法,如果没有决定好如何理解数据,以及应该采取什么行动,那么算法会给你建议。越来越多的算法通过调节社会过程、商业交易、政府决策,以及我们如何感知、理解和相互作用于环境。算法的设计和操作之间的差距以及我们对其伦理含义的理解可能会对个人以及群体乃至整个社会产生严重的影响。本文通过三个方面的研究,阐明了算法中介的伦理重要性。它为这篇文章提供了一个说明性的地图,回顾了当前关于算法伦理方面的讨论,以及对现有算法伦理文献中需要进一步研究的领域进行评估。

关键词:算法;自动化;大数据;数据分析;数据挖掘;伦理学;机器学习

正文:

在信息社会中,以前留给人类的操作、决策和选择越来越多地委托给算法,如果没有决定好如何理解数据,以及应该采取什么行动,那么算法会给你建议。这样的例子比比皆是,分析和分类算法决定了个人和群体是如何形成和管理的。推荐系统向用户说明何时、如何进行锻炼、买什么、要走哪条路线、以及同谁联系。数据挖掘算法则可以帮助理解“物联网”产生的行为数据流,之后在线服务供应商通过个性化推荐和过滤算法来调节信息的访问方式。机器学习算法在创建时自动识别错误、有偏见或不准确的知识(例如Wikipedia的目标修订评估服务)。正如这些例子所表明的,正是我们如何越来越多地通过算法感知和理解我们的环境,并与其相互作用。算法是不可避免的价值负载者,操作参数是由开发人员指定的,并由用户配置,其目的是使某些价值和利益凌驾于其他人之上。与此同时,有些事情即便理论上可以实现,但却不一定保证符合算法伦理。

由于许多原因,确定算法的潜在和实际的伦理影响是困难的。在algo- rithm的设计和配置中,识别人类主观性的影响往往需要长期的、多用户的开发过程。即使有足够的资源,问题和潜在的价值在最初并不会显现。学习算法经常被引为是算法和分析的“未来”,由于他们能够调整运营参数并决定“野外”规则,所以引入了对如何以及为何做出决策的不确定性。判断一个特定的问题决策仅仅是一次性的“bug”还是系统故障或偏差是不太可能的(或者至少是非常困难的),因为很难解释和预测的学习算法。随着算法复杂度的增加和相互之间的交互作用,这些挑战将也会随之增加。而由此产生的算法设计和运行之间的差距以及我们对其伦理意义的理解可能会对个人、团体和整个社会产生严重后果。

在本文中,我们绘制了由映射算法决策引发的道德问题。本文回答了两个问题:算法提出了哪些伦理问题?而且,这些问题如何应用于算法本身,而不是基于算法建构的技术?我们首先基于六种关注点提出一个概念图,这些关注点足以构成该领域的原则性组织。我们认为,该地图可以更加严格地诊断与使用算法相关的道德挑战。然后,我们回顾讨论算法伦理方面的科学文献,以评估该地图的实用性和准确性。文献中出现了七个主题,它们展示了在实践中如何提出拟议地图中定义的问题。总之,地图和评论为将来算法伦理的讨论提供了一个共同的结构。在本文的最后一部分,我们评估了拟议地图与主题之间的契合度,以确定是否需要进一步研究“算法伦理学”领域。本文提供的概念框架、评论和批判性分析旨在为将来的伦理调查、开发和算法治理提供信息。

对于映射算法的伦理学,我们必须首先定义一些关键术语。 “算法”在计算机科学,数学和公共话语中具有一系列含义。正如希尔解释的那样,我们看到的证据表明,在任何程序或决策过程中,无论定义多么模糊,都可以在媒体和公共话语中被称为“算法”。在新闻中,我们听到“算法”,这些“算法”暗示了单身人士的潜在配偶以及预测营销人员财务状况,这意味着这些算法可能是对的,也可能是错的。许多学术评论也未能说明技术类别或“算法”的正式定义。在这两种情况下,这一术语都不是用算法作为数学结构,而是用在特定程序,软件或信息系统中的,一种或多种算法的实现和相互作用。任何映射“算法伦理”的尝试都必须在正式定义和“算法”的流行使用之间解决这个问题。

在这里,我们遵循希尔的正式定义,他将算法定义为“有限的、抽象的、有效的、复合的控制结构,在给定的规定下完成给定的目标”。“然而,我们的调查不会像数学结构那样仅限于算法。正如在希尔的定义中包含“目的”和“条款”所暗示的那样,算法必须实施并采取行动最终产生效果。这个术语的流行用法在这里变得很重要。在公共话语中对算法的引用通常不会把算法作为数学上的概念来处理,而是具体的实现。“算法”的使用还包括将数学构造应用到技术中,以及为特定任务配置的技术的应用。一种完全配置的算法,将抽象的数学结构纳入到一个系统中,用于分析某一种分析领域中的任务。考虑到这一点,对特定任务或数据集的算法的配置不会改变其底层的数学表达式或系统实现;它更像是针对特定的案例或问题的算法操作的进一步调整。

因此,在计算机程序、软件和信息系统中,考虑算法的道德问题是没有意义的。我们的目标是绘制算法的伦理,用“算法”来解释公共话语。我们的地图将包括由算法所引起的伦理问题,如数学模型、实现(技术、程序)和配置(应用程序)。在讨论侧重于实现或配置(即具有嵌入算法的人工制品)时,我们将重点放在与算法工作有关的问题上,而不是与人工制品相关的所有问题。

然而,正如希尔所指出的,“算法”流行使用的一个问题是,它可以描述“任何过程或决策过程”,导致在绘图练习中出现大量的人工制品。公共话语目前主要是由特定的算法来实现的,例如,在特定情况下采取最佳的行动,对数据的最佳解释等等。这种算法增加或取代了人类的分析和决策,通常涉及数据和规则的范围或规模。在没有提供类的精确定义的情况下,我们感兴趣的算法是那些基于复杂的规则制定一般可靠的(但主观的,不一定是正确的)决策,这些规则挑战或混淆了人类的行动和理解能力。换句话说,我们对一些算法感兴趣,这些算法的行为对于人类来说很难预测,其决策逻辑在事后也很难解释。例如我们从不关心的,在制造业中自动执行平凡任务的算法。

从简单的决策模型到复杂的剖析算法,决策制定算法用于各种领域。 值得注意的当代例子包括在线服务供应商用于代表用户开展操作的在线软件代理; 在线争议解决算法取代争议调解中的人类决策者; 推荐和过滤系统,比较和分组用户提供个性化内容; 临床决策支持系统(CDSS),向医师推荐诊断和治疗; 以及预测犯罪活动热点的预测性警务系统。

数据分析学科是一个突出的例子,在这里定义为使用算法来理解数据流的实践。 分析可以立即响应系统用户的需求和偏好,以及由平台或服务提供商进行的长期战略规划和开发。 分析可以识别广泛分布式数据集之间的关系和小型模式。 新类型的查询被启用,包括对“收集”数据的行为研究; 跟踪细粒度的行为和偏好(例如性取向或政治观点;以及对未来行为的预测(用于预测性治安或信贷,保险和就业筛查。可操作的见解取代因果关系。

分析表明算法如何挑战人类的决策和理解,甚至是对以前由人类执行的任务。在做决策时(例如,购买哪种风险等级的保险),分析算法会使用高维数据来确定哪些特征与给定决策有关。 在任何此类分类任务中考虑的特性的数量都可以达到成千上万。因此,这类任务是对以前由人类工作人员(即风险分层)进行的工作的复制,但涉及一种不同的决策逻辑,适用于更大的投入。

然而,算法不仅仅是由于分析的规模和决策的复杂性而引起的。算法所做的工作的不确定性和不透明性以及它的影响也越来越成问题。传统的算法需要决策制定规则和权重,以“手工”方式单独定义和编程。虽然在很多情况下仍然如此(谷歌的PageRank算法是一个突出的例子),但算法还是在不断地进行学习。

机器学习是“方法和技术集合,可以利用数据提出新的模式和知识,并生成可用于对数据进行有效预测的模型”。机器学习的定义是自主定义或修改决策规则的能力来定义的。例如,一种用于分类任务的机器学习算法,通常由两个组件组成,一个学习器产生一个分类器,它的目的是开发出能够在训练数据之外泛化的类。该算法的工作包括将新的内容输入到模型或分类结构中。例如,图像识别技术可以决定图像中出现的对象类型。算法通过定义规则来“学习”,以确定新输入将如何分类。该模型可通过手工标注输入(监督学习)教给算法;在其他情况下,算法本身定义了最适合的模型来理解一组输入(非监督学习)。在这两种情况下,算法都定义了处理新输入的决策规则。关键的是,操作人员不需要理解算法产生的决策规则的基本原理。

正如这一解释所表明的那样,学习能力授予算法某种程度的自主权。 这种自主性的影响在一定程度上仍是不确定的。 因此,机器学习所执行的任务很难预先预测(如何处理新的输入)或事后解释(如何做出特定决定)。 因此,不确定性可能会妨碍算法设计和操作中对道德挑战的识别和纠正。

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[25015],资料为PDF文档或Word文档,PDF文档可免费转换为Word

原文和译文剩余内容已隐藏,您需要先支付 30元 才能查看原文和译文全部内容!立即支付

以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。