Merge pull request #131 from feiyun0112/patch-3

Update README.zh-cn.md
pull/135/head
Jen Looper 3 years ago committed by GitHub
commit 69266b65c6
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23

@ -7,11 +7,11 @@
## 介绍
在本课程中,将开始了解机器学习如何影响我们的日常生活。截至目前,系统和模型已经参与到日常决策任务中,例如医疗诊断或发现欺诈。因此,这些模型运行良好,并为每个人提供公平的结果非常重要。
在本课程中,将开始了解机器学习如何影响我们的日常生活。截至目前,系统和模型已经参与到日常决策任务中,例如医疗诊断或发现欺诈。因此,这些模型运行良好,并为每个人提供公平的结果非常重要。
想象一下,当用于构建这些模型的数据缺少某些人口统计信息时会发生什么情况,例如种族、性别、政治观点、宗教,或者不成比例地代表了这些人口统计信息。当模型的输出被解释为有利于某些人口统计学的时候呢?申请结果如何?
想象一下,当用于构建这些模型的数据缺少某些人口统计信息时会发生什么情况,例如种族、性别、政治观点、宗教,或者不成比例地代表了这些人口统计信息。当模型的输出被解释为有利于某些人口统计学的时候呢?申请结果如何?
在本课中,将:
在本课中,将:
- 提高你对机器学习中公平的重要性的认识。
- 了解公平相关的危害。
@ -42,7 +42,7 @@
与公平相关的主要危害可分为:
- **分配**,如果一个性别或种族比另一个更受青睐。
- **服务质量**。 如果针对一种特定场景训练数据,但实际情况要复杂得多,则会导致服务性能不佳。
- **服务质量**。 如果针对一种特定场景训练数据,但实际情况要复杂得多,则会导致服务性能不佳。
- **刻板印象**。 将给定的组与预先分配的属性相关联。
- **诋毁**。 不公平地批评和标记某事或某人。
- **代表性过高或过低**。这种想法是,某个群体在某个行业中不被看到,而这个行业一直在提升,这是造成伤害的原因。
@ -104,11 +104,11 @@
开发过程中做出的错误假设也会导致不公平。例如,旨在根据人脸图像预测谁将犯罪的面部分析系统可能会导致破坏性假设。这可能会对错误分类的人造成重大伤害。
## 了解的模型并建立公平性
## 了解的模型并建立公平性
尽管公平性的许多方面都没有包含在量化公平性指标中,并且不可能从系统中完全消除偏见以保证公平性,但仍然有责任尽可能多地检测和缓解公平性问题。
尽管公平性的许多方面都没有包含在量化公平性指标中,并且不可能从系统中完全消除偏见以保证公平性,但仍然有责任尽可能多地检测和缓解公平性问题。
使用机器学习模型时,通过确保模型的可解释性以及评估和减轻不公平性来理解模型非常重要。
使用机器学习模型时,通过确保模型的可解释性以及评估和减轻不公平性来理解模型非常重要。
让我们使用贷款选择示例来作为分析案例,以确定每个因素对预测的影响程度。
@ -136,7 +136,7 @@
你已经确定了伤害和受影响的群体,在本例中,是按性别划分的。现在,使用量化因子来分解它们的度量。例如,使用下面的数据,你可以看到女性的假阳性率最大,男性的假阳性率最小,而对于假阴性则相反。
✅ 在以后关于聚类的课程中,将看到如何在代码中构建这个“混淆矩阵”
✅ 在以后关于聚类的课程中,将看到如何在代码中构建这个“混淆矩阵”
| | 假阳性率 | 假阴性率 | 数量 |
| ---------- | ------------------- | ------------------- | ----- |
@ -147,7 +147,7 @@
这张桌子告诉我们几件事。首先,我们注意到数据中的未列出性别的人相对较少。数据是有偏差的,所以你需要小心解释这些数字。
在本例中我们有3个组和2个度量。当我们考虑我们的系统如何影响贷款申请人的客户群时这可能就足够了但是当您想要定义更多的组时,您可能需要将其提取到更小的摘要集。为此,您可以添加更多的度量,例如每个假阴性和假阳性的最大差异或最小比率。
在本例中我们有3个组和2个度量。当我们考虑我们的系统如何影响贷款申请人的客户群时这可能就足够了但是当你想要定义更多的组时,你可能需要将其提取到更小的摘要集。为此,你可以添加更多的度量,例如每个假阴性和假阳性的最大差异或最小比率。
✅ 停下来想一想:还有哪些群体可能会受到贷款申请的影响?
@ -159,9 +159,9 @@
### Fairlearn
[Fairlearn](https://fairlearn.github.io/) 是一个开源Python包可让评估系统的公平性并减轻不公平性。
[Fairlearn](https://fairlearn.github.io/) 是一个开源Python包可让评估系统的公平性并减轻不公平性。
该工具可帮助您评估模型的预测如何影响不同的组,使您能够通过使用公平性和性能指标来比较多个模型,并提供一组算法来减轻二元分类和回归中的不公平性。
该工具可帮助你评估模型的预测如何影响不同的组,使你能够通过使用公平性和性能指标来比较多个模型,并提供一组算法来减轻二元分类和回归中的不公平性。
- 通过查看Fairlearn的[GitHub](https://github.com/fairlearn/fairlearn/)了解如何使用不同的组件
@ -189,7 +189,7 @@
## [课后测验](https://jolly-sea-0a877260f.azurestaticapps.net/quiz/6/)
## 复习与自学
在本课中,学习了机器学习中公平和不公平概念的一些基础知识。
在本课中,学习了机器学习中公平和不公平概念的一些基础知识。
观看本次研讨会,深入探讨以下主题:

Loading…
Cancel
Save