|
|
|
@ -89,11 +89,11 @@
|
|
|
|
|
|
|
|
|
|
✅ **讨论**:重温一些例子,看看它们是否显示出不同的危害。
|
|
|
|
|
|
|
|
|
|
| | 分配 | 服务质量 | 刻板印象 | 诋毁 | 代表性过高或过低 |
|
|
|
|
|
| ----------------------- | :--------: | :----------------: | :----------: | :---------: | :----------------------------: |
|
|
|
|
|
| 自动招聘系统 | x | x | x | | x |
|
|
|
|
|
| 机器翻译 | | | | | |
|
|
|
|
|
| 照片加标签 | | | | | |
|
|
|
|
|
| | 分配 | 服务质量 | 刻板印象 | 诋毁 | 代表性过高或过低 |
|
|
|
|
|
| ------------ | :---: | :------: | :------: | :---: | :--------------: |
|
|
|
|
|
| 自动招聘系统 | x | x | x | | x |
|
|
|
|
|
| 机器翻译 | | | | | |
|
|
|
|
|
| 照片加标签 | | | | | |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
## 检测不公平
|
|
|
|
@ -138,11 +138,11 @@
|
|
|
|
|
|
|
|
|
|
✅ 在以后关于聚类的课程中,你将看到如何在代码中构建这个“混淆矩阵”
|
|
|
|
|
|
|
|
|
|
| | 假阳性率 | 假阴性率 | 数量 |
|
|
|
|
|
| ---------- | ------------------- | ------------------- | ----- |
|
|
|
|
|
| 女性 | 0.37 | 0.27 | 54032 |
|
|
|
|
|
| 男性 | 0.31 | 0.35 | 28620 |
|
|
|
|
|
| 未列出性别 | 0.33 | 0.31 | 1266 |
|
|
|
|
|
| | 假阳性率 | 假阴性率 | 数量 |
|
|
|
|
|
| ---------- | -------- | -------- | ----- |
|
|
|
|
|
| 女性 | 0.37 | 0.27 | 54032 |
|
|
|
|
|
| 男性 | 0.31 | 0.35 | 28620 |
|
|
|
|
|
| 未列出性别 | 0.33 | 0.31 | 1266 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
这个表格告诉我们几件事。首先,我们注意到数据中的未列出性别的人相对较少。数据是有偏差的,所以你需要小心解释这些数字。
|
|
|
|
@ -211,4 +211,4 @@
|
|
|
|
|
|
|
|
|
|
## 任务
|
|
|
|
|
|
|
|
|
|
[探索Fairlearn](../assignment.md)
|
|
|
|
|
[探索Fairlearn](assignment.zh-cn.md)
|
|
|
|
|