《人工智能伦理罗马倡议》全文

介绍

“人工智能” (AI) 为人类生活带来深远的变化,这个趋势不会改变。在改善社会共处和个人福祉、增强人类能力、促进许多高效率的任务执行方面,AI 具有巨大的潜力。然而,却无法完全保证其后果。目前正发生的变革,不仅是数量上,也是质量上的。而质量上的变革最为重要,会影响任务的执行方式,影响我们对现实和人性本身的认识,以至于影响我们的心理和人际习惯。

新技术的研究和生产,必须符合确保其真正为整个 “人类大家庭 “服务的标准 (《人权宣言》序言),尊重每个成员的固有尊严和所有自然环境,并考虑到弱势者的需要。如此的目的,不仅是为了确保没有人会被科技排除在外,也是为了无限扩大可能受到算法调节威胁的自由领域。

鉴于数字化转型所带来的问题,具有创新性和复杂性,对于所有相关利益攸关方来说,最重要的就是使受人工智能影响的所有需求都得到体现。在此基础上,我们可以承认并接受技术创新从设计、发布和使用的整个过程都考虑在内的责任,鼓励在各种实际情况下做出真正的承诺。从长远来看,我们能够在人工智能中灌输的价值观和原则,将有助于建立一个规范和充当数字道德准则的框架,指导我们的行动并促进技术的使用,从而造福人类和环境。

如今,我们比以往任何时候都更必要保证这种前景:在这种前景下,人工智能的发展不应侧重于技术,而应着眼于人类和环境的利益,我们共同和共享的家园以及与人类息息相关的居民。换句话说,发展数字创新的愿景应该以人类和自然为核心,而不是逐渐被理性行为的非人类技术所取代。现在是开始为更具技术性的未来做准备的时候了,机器将在人类生活中扮演更重要的角色,但要清楚认识到,技术进步肯定了人类的光辉,并仍持续依赖于人类的光辉。

伦理

人人生而自由,在尊严和权利上是平等的。他们具有理智和良知,应本着友爱的精神彼此相处(见《联合国人权决定》第1条)。在生产和使用人工智能系统时,这一自由和尊严的基本条件也必须得到保护和保障。要做到这一点,就必须保障个人的权利和自由,使他们不因 “种族、肤色、性别、语言、宗教、政治或其他见解、民族或社会出身、财产、出生或其他身份” 而受到算法的歧视 (《联合国人权决议》第2条)。

技术进步必须满足三个要求,才能与人类的真正进步和对地球的尊重保持一致。它必须包括每个人,不歧视任何人;它必须具有人类的利益和每个人的利益。最后,它必须考虑到我们生态系统的复杂现实,并以高度可持续的方式照顾和保护地球(我们 “共有共享的家园”)的方式为特征,其中还包括利用人工智能确保未来可持续的粮食系统。此外,每个人与机器互动时必须有此意识。绝不能使用基于AI的技术以任何方式剥削人类,尤其是最脆弱的人群。相反地,必须使用它来帮助人们发展能力(赋权/使能)并支持地球。

기르다

通过人工智能的创新来改变世界,也是为与年轻的一代共建未来。这一承诺必须体现在对教育的承诺上,制定跨越人文、科学和技术等不同学科的具体课程,并承担起教育年轻一代的责任。这一承诺意味着要努力提高青年人所受教育的质量;必须通过以下方法来实现这一承诺:– 在教育过程中,要考虑到青年人的需求,并考虑其所需。(a) 人人都能接受教育,没有歧视,并能提供平等的机会和待遇。

我们必须通过团结和公平的原则实现普及教育。还必须保证老年人获得终身学习的机会,必须向他们提供以下服务 在数字和技术转型期间,有机会获得线下服务。此外,这些 技术可以证明在帮助残疾人学习和成为残疾人方面非常有用。更独立:因此,全纳教育也意味着利用人工智能来支持和整合每一个 和每一个人,提供帮助和社会参与的机会(如远程工作,以促进社会发展;行动不便的人、认知障碍者的技术支持等)。

人工智能给社会、工作和教育带来的变革影响,使得它 必须对学校课程进行全面改革,使 “不让一个人掉队 “的教育口号成为现实。现实。在教育部门,需要进行改革,以建立客观的高标准。可以提高个人成果的。这些标准不应局限于制定。数字技能,而应注重确保每个人都能充分表达自己的想法。的能力和为社会谋福利,即使在没有个人利益的情况下。可从中获得。

在我们设计和规划未来社会的时候,人工智能的使用必须遵循的行动形式是什么?面向社会、有创造力、有联结力、有生产力、有责任感、能有积极的发展。对年轻一代个人和社会生活的影响。人工智能的社会和伦理影响 也必须成为人工智能教育活动的核心。这种教育的主要目的必须是提高人们对机会和可能出现的问题的认识。从社会包容和个人尊重的角度,探讨人工智能带来的问题。

权利

发展人工智能为人类和地球服务,必须在法规中有所体现。保护人民—-特别是弱者和贫困者—-和自然环境的原则。环境。所有相关利益攸关方的道德承诺是一个重要的出发点;以 使这一未来成为现实,价值观、原则,以及在某些情况下的法律规定,是绝对必要的。为了支持、构建和指导这一进程,不可或缺。

开发和实施造福人类和地球的人工智能系统,同时作为工具,以 建设和维护国际和平,人工智能的发展必须与强大的人工智能相辅相成。数字安全措施。

为了使人工智能成为造福人类和地球的工具,我们必须把在数字时代保护人权的议题放在公众辩论的核心位置。现在已经到了质疑新形式的自动化和算法活动是否需要制定更强有力的责任的时候了。特别是,必须考虑某种形式的 “解释责任”:我们必须考虑不仅要让基于人工智能的算法代理的决策标准可以理解,而且要让它们的目的和目标可以理解。这些设备必须能够向个人提供关于用于决策的算法背后的逻辑信息。这将增加透明度、可追溯性和责任感,使计算机辅助决策过程更加有效。

我们必须鼓励新的监管形式,以促进透明度和对道德原则的遵守,特别是对面部识别等影响人权风险较高的先进技术。为了实现这些目标,我们必须从每一个算法的开发之初就以 “算法-伦理 “的眼光出发,即通过设计来实现伦理的方法。设计和规划我们可以信任的人工智能系统,需要在政治决策者、联合国系统机构和其他政府间组织、研究人员、学术界和非政府组织代表之间就应遵循的伦理原则寻求共识。纳入这些技术。为此,呼吁的发起人表示,他们希望在以下方面开展工作。在此背景下,在国家和国际一级共同促进 “算法伦理”,即以下列原则所定义的人工智能使用道德:

  1. 透明度:原则上,人工智能系统必须是可解释的。
  2. 包容性:必须考虑到所有人的需求,使每个人都能 所有的人都能受益,所有的人都能得到尽可能好的条件来表达自己的想法。自己并发展。
  3. 责任:设计和部署使用人工智能的人必须带着责任心去做; 4. 和透明度。
  4. 公正性:不以偏概全,不以偏概全,从而保障了公平和人的 尊严。
  5. 可靠性。AI系统必须能够可靠地工作。
  6. 安全性和隐私性:AI系统必须能够安全地工作,尊重用户的隐私。AI系统必须安全地工作,尊重用户的隐私。

这些原则是良好创新的基本要素。

                                                                                        罗马,2020年2月28日

原文来源

포스터
화신

주제 뉴스 편집자 - 중국 콘텐츠 제작자이자 큐레이터이며, 주요 뉴스 채널을 통한 중국/일본/한국 언론 보도 서비스입니다.

TNews 팔로우
과학 기술

댓글