欧盟AI伦理准则为AI划定方向(转载)

楼主:知识产权强国院 时间:2019-01-08 16:11:19 点击:66 回复:3
脱水 打赏 看楼主 设置

字体:

边距:

背景:

还原:

  篇者:近日,欧盟委员会(EC)任命的人工智能高级专家小组发布了AI开发和使用的伦理草案,提出可信赖AI,并给定了两大条件及禁止规则。两大条件:一是尊重基本权利,尊周法律法规、核心原则和价值观,以确保“伦理目的”,二是兼具技术鲁棒性和可靠性,AI技术必须足够稳健,并对抗强大攻击,有“应急计划”。禁止规则是:一是不应伤害人类,不得征服或强迫人类,不得有歧视或诬蔑行为,并最终服务整个人类。
  近日,欧盟委员会发布了由人工智能高级专家组(AI HLEG)编制的《人工智能道德准则》(AI Ethics Guidelines)草案,指出 AI 的发展方向应该是「可信赖 AI」,即确保这一技术的目的合乎道德,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。该准则旨在为 AI 系统的具体实施和操作提供指导。《准则》最终版将于 2019 年 3 月发布。


  执行摘要

  人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。我们必须遵循「最大化 AI 的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的 AI 发展方向,时刻铭记 AI 的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖 AI」(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从 AI 中全面获益。

  「可信赖 AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖 AI」的基本框架:

  「可信赖 AI」框架

  Chapter I :确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。

  Chapter II:关于实现「可信赖 AI」的指导原则,同时强调 AI 发展目的的道德性和技术稳健性。这部分列出了「可信赖 AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)

  Chapter III:提供「可信赖 AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。

  与其他有关 AI 伦理道德的文件相比,这份准则的目的不是为 AI 增加一份核心价值观和原则清单,而是为 AI 系统的具体实施和操作提供指导。

  该准则面向开发、部署或使用 AI 的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。

  需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。

  「可信赖 AI」的实现

  这一部分为「可信赖 AI」的实施和实现提供了指导,指出实现「可信赖 AI」有哪些要求,在发展、部署、使用 AI 的过程中有哪些方法可以满足这些要求,从而充分利用由 AI 创造的机遇。

  1.「可信赖 AI」的要求

  实现「可信赖 AI」意味着需要在 AI 系统和应用的具体要求中加入一般、抽象的原则。以下是从 Chapter I 的权利、原则和价值观中衍生出的十条要求。这十条要求同样重要,但实施过程中需要考虑不同应用领域和行业的具体背景。

  问责机制

  数据治理

  为所有人设计

  人工智能自治的治理(人的监督)

  非歧视

  尊重(增强)人类自主性

  尊重隐私

  稳健性

  安全

  透明

  《准则》还对每一项要求进行了进一步解释。例如,在「问责机制」这项要求中,《准则》指出,问责机制的选择可能非常多样,从金钱补偿到过失调查,再到没有金钱补偿的和解。如一个系统误读了药品报销申请,错误地决定不予报销,系统所有者可能会被要求做出金钱补偿。其他要求的详细内容请参考原文。

  这一清单按字母顺序对要求进行排序,以表明所有要求同等重要。Chapter III 还提供了一份评估清单,以支持这些要求的实施。

  2. 实现「可信赖 AI」的技术和非技术方法

  为了满足上一节中提到的要求,开发过程的所有层面(包括分析、设计、开发和使用)都可以采用技术和非技术方法(参见图 3)。对实施这些要求和方法的评估,以及对流程变化的报告和论证应该持续进行。事实上,考虑到 AI 系统不断发展,以及在动态环境中运行,实现「可信赖 AI」可以看作一个持续的过程。

  虽然这份准则中的方法列表并不详尽,但它旨在列出实施「可信赖 AI」的主要方法。为了提高 AI 系统的可信度,这些方法应该基于第一章中定义的权利和原则。

  图 3 显示了权利、原则和价值观对系统开发过程的影响。这些抽象的原则和权利被具体化为对 AI 系统的要求,该系统的实施和实现要由不同的技术和非技术方法支持。此外,考虑到 AI 技术的适应性和动态性,继续坚持原则和价值观要求将评估(evaluation)和论证(justification)流程作为开发流程的核心。

  图 3:通过系统的整个生命周期实现「可信赖 AI」

打赏

0 点赞

主帖获得的天涯分:0
举报 | | 楼主 | 埋红包
楼主发言:1次 发图:0张 | 添加到话题 |
作者:halberdlin2018 时间:2019-01-08 18:53:12
  前排就坐
发表回复

请遵守天涯社区公约言论规则,不得违反国家法律法规