# 构建负责任的人工智能的机器学习解决方案 ![机器学习中负责任人工智能的概要图](../../../../sketchnotes/ml-fairness.png) > 由 [Tomomi Imura](https://www.twitter.com/girlie_mac) 绘制的概要图 ## [课前测验](https://ff-quizzes.netlify.app/en/ml/) ## 简介 在本课程中,您将开始了解机器学习如何以及正在影响我们的日常生活。即使是现在,系统和模型已经参与了日常决策任务,例如医疗诊断、贷款审批或欺诈检测。因此,确保这些模型能够提供值得信赖的结果非常重要。与任何软件应用程序一样,人工智能系统可能会未达到预期或产生不理想的结果。这就是为什么理解和解释人工智能模型的行为至关重要。 想象一下,当您用于构建这些模型的数据缺乏某些人口统计信息(例如种族、性别、政治观点、宗教)或过度代表某些人口统计信息时会发生什么?如果模型的输出被解释为偏向某些人口统计信息,又会有什么后果?此外,当模型产生不良结果并对人们造成伤害时会发生什么?谁应该对人工智能系统的行为负责?这些是我们将在本课程中探讨的一些问题。 在本课中,您将: - 提高对机器学习公平性及相关危害重要性的认识。 - 熟悉探索异常值和特殊场景以确保可靠性和安全性的实践。 - 了解设计包容性系统以赋能所有人的必要性。 - 探讨保护数据和个人隐私与安全的重要性。 - 认识到采用透明化方法解释人工智能模型行为的重要性。 - 意识到责任感对于建立人工智能系统信任的重要性。 ## 前提条件 作为前提条件,请完成“负责任人工智能原则”学习路径并观看以下视频: 通过以下 [学习路径](https://docs.microsoft.com/learn/modules/responsible-ai-principles/?WT.mc_id=academic-77952-leestott) 了解更多关于负责任人工智能的信息。 [![微软的负责任人工智能方法](https://img.youtube.com/vi/dnC8-uUZXSc/0.jpg)](https://youtu.be/dnC8-uUZXSc "微软的负责任人工智能方法") > 🎥 点击上方图片观看视频:微软的负责任人工智能方法 ## 公平性 人工智能系统应公平对待每个人,避免对类似群体产生不同影响。例如,当人工智能系统提供医疗建议、贷款申请或就业指导时,它们应对具有类似症状、财务状况或专业资格的人做出相同的推荐。我们每个人作为人类,都携带着影响我们决策和行为的固有偏见。这些偏见可能会体现在我们用于训练人工智能系统的数据中。这种操控有时可能是无意的。通常很难有意识地知道何时在数据中引入了偏见。 **“不公平”** 包括对某些群体(例如按种族、性别、年龄或残疾状态定义的群体)造成的负面影响或“危害”。主要与公平性相关的危害可以分类为: - **分配**:例如,如果某个性别或种族被优待于另一个。 - **服务质量**:如果您仅为一个特定场景训练数据,而现实情况更复杂,这会导致服务表现不佳。例如,一个无法识别深色皮肤的洗手液分配器。[参考](https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773) - **贬低**:不公平地批评或标记某事或某人。例如,一个图像标记技术曾错误地将深色皮肤人群的照片标记为猩猩。 - **过度或不足代表**:某些群体在某些职业中未被看到,而任何继续推广这种现象的服务或功能都在助长危害。 - **刻板印象**:将某个群体与预先分配的属性联系起来。例如,英语和土耳其语之间的语言翻译系统可能因与性别相关的刻板印象而出现不准确。 ![翻译成土耳其语](../../../../1-Introduction/3-fairness/images/gender-bias-translate-en-tr.png) > 翻译成土耳其语 ![翻译回英语](../../../../1-Introduction/3-fairness/images/gender-bias-translate-tr-en.png) > 翻译回英语 在设计和测试人工智能系统时,我们需要确保人工智能是公平的,并且不会被编程为做出偏见或歧视性的决策,这些决策也是人类被禁止做出的。确保人工智能和机器学习的公平性仍然是一个复杂的社会技术挑战。 ### 可靠性与安全性 为了建立信任,人工智能系统需要在正常和意外情况下保持可靠、安全和一致。了解人工智能系统在各种情况下的行为尤其重要,特别是当它们处于异常值时。在构建人工智能解决方案时,需要重点关注如何处理人工智能解决方案可能遇到的各种情况。例如,一辆自动驾驶汽车需要将人的安全作为首要任务。因此,驱动汽车的人工智能需要考虑汽车可能遇到的所有可能场景,例如夜晚、雷暴或暴风雪、孩子跑过街道、宠物、道路施工等。人工智能系统在各种条件下可靠安全地处理问题的能力反映了数据科学家或人工智能开发人员在设计或测试系统时的预见水平。 > [🎥 点击此处观看视频:](https://www.microsoft.com/videoplayer/embed/RE4vvIl) ### 包容性 人工智能系统应设计为能够吸引和赋能所有人。在设计和实施人工智能系统时,数据科学家和人工智能开发人员需要识别并解决系统中可能无意间排除某些人的潜在障碍。例如,全球有10亿残疾人。随着人工智能的进步,他们可以更轻松地获取广泛的信息和机会。通过解决这些障碍,可以创造创新机会,开发具有更好体验的人工智能产品,从而惠及所有人。 > [🎥 点击此处观看视频:人工智能中的包容性](https://www.microsoft.com/videoplayer/embed/RE4vl9v) ### 安全与隐私 人工智能系统应安全并尊重个人隐私。人们对那些可能危及隐私、信息或生命的系统信任度较低。在训练机器学习模型时,我们依赖数据以获得最佳结果。在此过程中,必须考虑数据的来源和完整性。例如,数据是用户提交的还是公开可用的?接下来,在处理数据时,开发人工智能系统时必须能够保护机密信息并抵御攻击。随着人工智能的普及,保护隐私和确保重要的个人和商业信息的安全变得越来越重要和复杂。隐私和数据安全问题需要特别关注人工智能,因为数据访问对于人工智能系统做出准确和知情的预测以及关于人的决策至关重要。 > [🎥 点击此处观看视频:人工智能中的安全性](https://www.microsoft.com/videoplayer/embed/RE4voJF) - 在行业中,我们在隐私和安全方面取得了显著进展,这在很大程度上得益于像GDPR(通用数据保护条例)这样的法规。 - 然而,对于人工智能系统,我们必须承认需要更多个人数据以使系统更个性化和有效——与隐私之间的紧张关系。 - 就像互联网连接的计算机诞生一样,我们也看到了与人工智能相关的安全问题数量的巨大增长。 - 同时,我们也看到人工智能被用于改善安全性。例如,大多数现代杀毒扫描器今天都由人工智能启发式驱动。 - 我们需要确保我们的数据科学流程与最新的隐私和安全实践和谐融合。 ### 透明性 人工智能系统应易于理解。透明性的一个关键部分是解释人工智能系统及其组件的行为。提高对人工智能系统的理解需要利益相关者能够理解它们的功能和原因,以便识别潜在的性能问题、安全和隐私问题、偏见、排他性实践或意外结果。我们还认为,使用人工智能系统的人应该诚实并坦率地说明何时、为何以及如何选择部署它们,以及所使用系统的局限性。例如,如果一家银行使用人工智能系统来支持其消费者贷款决策,那么审查结果并了解哪些数据影响系统的推荐是很重要的。政府开始对各行业的人工智能进行监管,因此数据科学家和组织必须解释人工智能系统是否符合监管要求,特别是在出现不理想结果时。 > [🎥 点击此处观看视频:人工智能中的透明性](https://www.microsoft.com/videoplayer/embed/RE4voJF) - 由于人工智能系统非常复杂,很难理解它们的工作原理并解释结果。 - 这种理解的缺乏影响了这些系统的管理、操作化和文档化方式。 - 更重要的是,这种理解的缺乏影响了使用这些系统产生的结果所做出的决策。 ### 责任感 设计和部署人工智能系统的人必须对其系统的运行负责。责任感对于敏感技术的使用尤其重要,例如面部识别技术。最近,面部识别技术的需求不断增长,尤其是执法机构,他们看到了该技术在寻找失踪儿童等用途上的潜力。然而,这些技术可能会被政府用于威胁公民的基本自由,例如对特定个人进行持续监控。因此,数据科学家和组织需要对其人工智能系统对个人或社会的影响负责。 [![领先的人工智能研究人员警告面部识别可能导致大规模监控](../../../../1-Introduction/3-fairness/images/accountability.png)](https://www.youtube.com/watch?v=Wldt8P5V6D0 "微软的负责任人工智能方法") > 🎥 点击上方图片观看视频:面部识别可能导致大规模监控的警告 最终,对于我们这一代人来说,作为将人工智能引入社会的第一代人,最大的一个问题是如何确保计算机始终对人类负责,以及如何确保设计计算机的人对其他人负责。 ## 影响评估 在训练机器学习模型之前,进行影响评估以了解人工智能系统的目的、预期用途、部署地点以及与系统交互的人非常重要。这些评估有助于评审者或测试人员在识别潜在风险和预期后果时知道需要考虑哪些因素。 以下是进行影响评估时的重点领域: * **对个人的不利影响**:意识到任何限制或要求、不支持的用途或任何已知限制影响系统性能至关重要,以确保系统不会以可能对个人造成伤害的方式使用。 * **数据要求**:了解系统如何以及在哪里使用数据使评审者能够探索需要注意的任何数据要求(例如GDPR或HIPPA数据法规)。此外,检查数据的来源或数量是否足够用于训练。 * **影响摘要**:收集使用系统可能产生的潜在危害列表。在机器学习生命周期中,审查是否解决或处理了识别的问题。 * **六项核心原则的适用目标**:评估每项原则的目标是否达成,以及是否存在任何差距。 ## 使用负责任人工智能进行调试 与调试软件应用程序类似,调试人工智能系统是识别和解决系统问题的必要过程。许多因素会影响模型未按预期或负责任地运行。大多数传统模型性能指标是模型性能的定量汇总,这不足以分析模型如何违反负责任人工智能原则。此外,机器学习模型是一个黑箱,难以理解其结果的驱动因素或在出现错误时提供解释。在本课程后续部分,我们将学习如何使用负责任人工智能仪表板来帮助调试人工智能系统。该仪表板为数据科学家和人工智能开发人员提供了一个全面的工具,用于执行以下操作: * **错误分析**:识别模型的错误分布,这可能影响系统的公平性或可靠性。 * **模型概览**:发现模型在不同数据群体中的性能差异。 * **数据分析**:了解数据分布并识别数据中可能导致公平性、包容性和可靠性问题的潜在偏见。 * **模型可解释性**:了解影响或驱动模型预测的因素。这有助于解释模型的行为,这对透明性和责任感至关重要。 ## 🚀 挑战 为了防止危害的引入,我们应该: - 确保参与系统开发的人员具有多样化的背景和观点 - 投资于反映社会多样性的数据集 - 在整个机器学习生命周期中开发更好的方法,以检测和纠正负责任人工智能问题 思考现实生活中模型在构建和使用过程中显现不可信的场景。我们还应该考虑什么? ## [课后测验](https://ff-quizzes.netlify.app/en/ml/) ## 复习与自学 在本课中,您已经学习了机器学习中公平性和不公平性概念的一些基础知识。 观看此研讨会,深入了解相关主题: - 追求负责任的人工智能:将原则付诸实践,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主讲 [![负责任的人工智能工具箱:构建负责任人工智能的开源框架](https://img.youtube.com/vi/tGgJCrA-MZU/0.jpg)](https://www.youtube.com/watch?v=tGgJCrA-MZU "RAI Toolbox: 构建负责任人工智能的开源框架") > 🎥 点击上方图片观看视频:RAI Toolbox: 构建负责任人工智能的开源框架,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主讲 此外,阅读以下内容: - 微软的负责任人工智能资源中心:[负责任人工智能资源 – Microsoft AI](https://www.microsoft.com/ai/responsible-ai-resources?activetab=pivot1%3aprimaryr4) - 微软的 FATE 研究团队:[FATE: 公平性、问责性、透明性和人工智能伦理 - Microsoft Research](https://www.microsoft.com/research/theme/fate/) RAI 工具箱: - [负责任人工智能工具箱 GitHub 仓库](https://github.com/microsoft/responsible-ai-toolbox) 了解 Azure 机器学习工具如何确保公平性: - [Azure 机器学习](https://docs.microsoft.com/azure/machine-learning/concept-fairness-ml?WT.mc_id=academic-77952-leestott) ## 作业 [探索 RAI 工具箱](assignment.md) --- **免责声明**: 本文档使用AI翻译服务[Co-op Translator](https://github.com/Azure/co-op-translator)进行翻译。虽然我们努力确保翻译的准确性,但请注意,自动翻译可能包含错误或不准确之处。应以原始语言的文档作为权威来源。对于重要信息,建议使用专业人工翻译。我们不对因使用此翻译而产生的任何误解或误读承担责任。