You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/zh/1-Introduction/3-fairness/README.md

14 KiB

构建负责任的人工智能解决方案

在速写笔记中总结的机器学习中的负责任AI

速写笔记由 Tomomi Imura 提供

课前测验

介绍

在本课程中你将开始了解机器学习如何以及正在影响我们的日常生活。即使在现在系统和模型已经参与了日常的决策任务例如医疗诊断、贷款审批或检测欺诈。因此这些模型需要表现良好以提供可信的结果。就像任何软件应用程序一样AI系统也会有未达预期或产生不理想结果的情况。这就是为什么理解和解释AI模型行为是至关重要的。

想象一下当你用来构建这些模型的数据缺乏某些人口统计信息如种族、性别、政治观点、宗教或者这些人口统计信息被不成比例地代表时会发生什么情况。再想想当模型的输出被解读为偏向某些人口统计时会有什么后果另外当模型产生不利结果并对人们造成伤害时会发生什么谁应该对AI系统的行为负责这些是我们将在本课程中探讨的问题。

在本课中,你将:

  • 提高对机器学习中公平性的重要性及相关危害的认识。
  • 熟悉探索异常值和不寻常场景的实践,以确保可靠性和安全性。
  • 了解设计包容性系统以赋权所有人的必要性。
  • 探讨保护数据和个人隐私与安全的重要性。
  • 了解采用透明方法解释AI模型行为的重要性。
  • 注意到责任感在建立AI系统信任中的重要性。

先决条件

作为先决条件请完成“负责任AI原则”学习路径并观看以下视频

通过以下学习路径了解更多关于负责任AI的信息。

Microsoft's Approach to Responsible AI

🎥 点击上图观看视频Microsoft's Approach to Responsible AI

公平性

AI系统应该公平对待每个人避免对相似群体的人产生不同的影响。例如当AI系统提供医疗建议、贷款申请或就业指导时它们应该对有相似症状、财务状况或专业资格的每个人提供相同的建议。我们每个人都携带着影响我们决策和行动的继承偏见。这些偏见可能体现在我们用来训练AI系统的数据中。这种操控有时是无意的。通常很难有意识地知道你何时在数据中引入了偏见。

“不公平” 包括对某一群体的负面影响或“伤害”,例如按种族、性别、年龄或残疾状态定义的群体。主要的公平性相关伤害可以分类为:

  • 分配,例如一个性别或种族被偏爱于另一个。
  • 服务质量。如果你为一个特定场景训练数据,但现实要复杂得多,就会导致服务表现不佳。例如,一个手部肥皂分配器似乎无法感应深色皮肤的人。参考
  • 诽谤。不公平地批评和标签某物或某人。例如,一种图像标签技术臭名昭著地将深色皮肤人的图像错误标记为大猩猩。
  • 过度或不足代表。某一群体在某一职业中未被看到的想法,任何继续推广这种现象的服务或功能都是在造成伤害。
  • 刻板印象。将某一群体与预先分配的属性联系在一起。例如,英语和土耳其语之间的语言翻译系统可能由于与性别有关的刻板印象而出现错误。

翻译成土耳其语

翻译成土耳其语

翻译回英语

翻译回英语

在设计和测试AI系统时我们需要确保AI是公平的并且没有被编程成做出有偏见或歧视性的决策这是人类也被禁止做出的。确保AI和机器学习中的公平性仍然是一个复杂的社会技术挑战。

可靠性和安全性

为了建立信任AI系统需要在正常和意外条件下可靠、安全和一致。了解AI系统在各种情况下的行为是很重要的特别是在异常情况下。构建AI解决方案时需要大量关注如何处理AI解决方案可能遇到的各种情况。例如一辆自动驾驶汽车需要将人的安全放在首位。因此驱动汽车的AI需要考虑汽车可能遇到的所有场景如夜晚、雷暴或暴风雪、孩子跑过街道、宠物、道路施工等。一个AI系统在多种条件下可靠和安全地处理情况的能力反映了数据科学家或AI开发人员在设计或测试系统时所考虑的预期水平。

🎥 点击这里观看视频:

包容性

AI系统应该设计成能够吸引和赋权所有人。在设计和实施AI系统时数据科学家和AI开发人员会识别和解决系统中可能无意中排除某些人的潜在障碍。例如全球有10亿残疾人。随着AI的发展他们可以更轻松地在日常生活中访问各种信息和机会。通过解决这些障碍可以创新和开发出为每个人带来更好体验的AI产品。

🎥 点击这里观看视频AI中的包容性

安全和隐私

AI系统应该是安全的并尊重人们的隐私。人们对那些将其隐私、信息或生活置于风险中的系统信任度较低。在训练机器学习模型时我们依赖数据来产生最佳结果。在此过程中数据的来源和完整性必须考虑。例如数据是用户提交的还是公开可用的接下来在处理数据时至关重要的是开发能够保护机密信息并抵御攻击的AI系统。随着AI的普及保护隐私和确保重要的个人和商业信息的安全变得越来越重要和复杂。隐私和数据安全问题需要特别关注AI因为访问数据对于AI系统做出准确和知情的预测和决策至关重要。

🎥 点击这里观看视频AI中的安全性

  • 作为一个行业我们在隐私和安全方面取得了重大进展这主要得益于如GDPR通用数据保护条例等法规的推动。
  • 然而对于AI系统我们必须承认在需要更多个人数据以使系统更个性化和有效与隐私之间的紧张关系。
  • 就像互联网带来的连接计算机一样我们也看到与AI相关的安全问题数量激增。
  • 同时我们也看到AI被用来改善安全性。例如大多数现代的防病毒扫描器今天都是由AI启发驱动的。
  • 我们需要确保我们的数据科学流程与最新的隐私和安全实践和谐融合。

透明性

AI系统应该是可理解的。透明性的一个关键部分是解释AI系统及其组件的行为。提高对AI系统的理解需要利益相关者理解它们的工作原理和原因以便他们能够识别潜在的性能问题、安全和隐私问题、偏见、排他性做法或意外结果。我们还认为使用AI系统的人应该诚实并坦率地说明何时、为何以及如何选择部署它们以及所使用系统的局限性。例如如果一家银行使用AI系统来支持其消费者贷款决策重要的是检查结果并了解哪些数据影响了系统的建议。政府开始在各个行业对AI进行监管因此数据科学家和组织必须解释AI系统是否符合监管要求特别是在出现不理想结果时。

🎥 点击这里观看视频AI中的透明性

  • 由于AI系统非常复杂很难理解它们的工作原理并解释结果。
  • 这种缺乏理解会影响这些系统的管理、操作和文档编制方式。
  • 更重要的是,这种缺乏理解会影响使用这些系统产生结果的决策。

责任

设计和部署AI系统的人必须对其系统的运行负责。责任感的需求在敏感技术的使用中尤为重要如面部识别技术。最近对面部识别技术的需求不断增长特别是执法机构看到了这项技术在寻找失踪儿童等用途中的潜力。然而这些技术可能会被政府用来威胁公民的基本自由例如通过使对特定个人的持续监控成为可能。因此数据科学家和组织需要对其AI系统对个人或社会的影响负责。

Leading AI Researcher Warns of Mass Surveillance Through Facial Recognition

🎥 点击上图观看视频:面部识别技术大规模监控的警告

最终对于我们这一代人来说作为将AI引入社会的第一代人最大的一个问题是如何确保计算机对人负责以及如何确保设计计算机的人对所有人负责。

影响评估

在训练机器学习模型之前进行影响评估以了解AI系统的目的、预期用途、部署地点以及与系统互动的人是谁这一点很重要。这些对于评审员或测试人员评估系统时了解在识别潜在风险和预期后果时需要考虑的因素非常有帮助。

进行影响评估时的重点领域如下:

  • 对个人的不利影响。了解任何限制或要求、不支持的使用或任何已知的性能限制对于确保系统不会以可能对个人造成伤害的方式使用至关重要。
  • 数据要求。了解系统如何以及在哪里使用数据使评审员能够探索你需要注意的任何数据要求例如GDPR或HIPPA数据法规。此外检查数据的来源或数量是否足够用于训练。
  • 影响总结。收集一份使用系统可能带来的潜在伤害清单。在ML生命周期中检查是否已缓解或解决识别出的问题。
  • 每个核心原则的适用目标。评估每个原则的目标是否实现,以及是否存在任何差距。

使用负责任AI进行调试

类似于调试软件应用程序调试AI系统是识别和解决系统问题的必要过程。许多因素会影响模型未按预期或负责任地表现。大多数传统的模型性能指标是模型性能的定量汇总这不足以分析模型如何违反负责任AI原则。此外机器学习模型是一个黑箱难以理解其结果的驱动因素或在出现错误时提供解释。在本课程的后期我们将学习如何使用负责任AI仪表板来帮助调试AI系统。仪表板为数据科学家和AI开发人员提供了一个全面的工具用于执行

  • 错误分析。识别模型的错误分布,这可能影响系统的公平性或可靠性。
  • 模型概述。发现模型在数据群体中的性能差异。
  • 数据分析。了解数据分布并识别数据中可能导致公平性、包容性和可靠性问题的潜在偏见。
  • 模型可解释性。了解影响或影响模型预测的因素。这有助于解释模型的行为,对于透明性和责任感非常重要。

🚀 挑战

为了防止伤害的引入,我们应该:

  • 让系统开发团队拥有多样化的背景和观点
  • 投资反映我们社会多样性的数据集
  • 在整个机器学习生命周期中开发更好的方法以检测和纠正负责任AI的出现

思考一些现实生活中的场景,模型的不可信性在模型构建和使用中变得显而易见。我们还应该考虑什么?

课后测验

复习与自学

在本课中,你学习了机器学习中公平性和不公平性的基本概念。

观看这个研讨会,深入了解这些主题:

  • 追求负责任AI将原则付诸实践作者Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma

Responsible AI Toolbox: An open-source framework for building responsible AI

🎥 点击上图观看视频RAI Toolbox: An open-source framework for building responsible AI by Besmira Nushi, Mehrnoosh Sameki, and Amit Sharma

另外,阅读:

RAI Toolbox:

阅读关于Azure机器学习的工具以确保公平性

作业

探索RAI工具箱

免责声明: 本文件已使用基于机器的AI翻译服务进行翻译。尽管我们力求准确但请注意自动翻译可能包含错误或不准确之处。应将原始语言的文档视为权威来源。对于关键信息建议进行专业人工翻译。我们对使用本翻译可能引起的任何误解或误读不承担责任。