You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/tw/1-Introduction/3-fairness/README.md

170 lines
14 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "9a6b702d1437c0467e3c5c28d763dac2",
"translation_date": "2025-09-05T09:52:29+00:00",
"source_file": "1-Introduction/3-fairness/README.md",
"language_code": "tw"
}
-->
# 使用負責任的人工智慧建構機器學習解決方案
![機器學習中負責任 AI 的摘要草圖](../../../../sketchnotes/ml-fairness.png)
> 草圖由 [Tomomi Imura](https://www.twitter.com/girlie_mac) 提供
## [課前測驗](https://ff-quizzes.netlify.app/en/ml/)
## 簡介
在這門課程中您將開始探索機器學習如何影響我們的日常生活。即使是現在系統和模型已經參與了日常的決策任務例如醫療診斷、貸款審批或欺詐檢測。因此確保這些模型能夠提供值得信賴的結果是非常重要的。就像任何軟體應用程式一樣AI 系統可能無法達到預期或產生不理想的結果。因此,了解並解釋 AI 模型的行為是至關重要的。
想像一下,當您用來構建這些模型的數據缺乏某些人口統計數據(例如種族、性別、政治觀點、宗教)或過度代表某些人口統計數據時會發生什麼情況。如果模型的輸出被解讀為偏向某些人口統計數據,那麼應用程式會有什麼後果?此外,當模型產生不良結果並對人們造成傷害時會發生什麼?誰應該對 AI 系統的行為負責?這些是我們在這門課程中將探討的一些問題。
在這節課中,您將:
- 提高對機器學習中公平性及相關傷害的重要性的認識。
- 熟悉探索異常值和不尋常情境以確保可靠性和安全性的實踐。
- 理解設計包容性系統以賦能每個人的必要性。
- 探索保護數據和人員隱私與安全的重要性。
- 認識到採用透明化方法解釋 AI 模型行為的必要性。
- 意識到責任感對於建立 AI 系統信任的重要性。
## 先修條件
作為先修條件,請完成「負責任 AI 原則」學習路徑,並觀看以下主題的影片:
通過以下 [學習路徑](https://docs.microsoft.com/learn/modules/responsible-ai-principles/?WT.mc_id=academic-77952-leestott) 了解更多關於負責任 AI 的資訊。
[![Microsoft 的負責任 AI 方法](https://img.youtube.com/vi/dnC8-uUZXSc/0.jpg)](https://youtu.be/dnC8-uUZXSc "Microsoft 的負責任 AI 方法")
> 🎥 點擊上方圖片觀看影片Microsoft 的負責任 AI 方法
## 公平性
AI 系統應該公平對待每個人,避免對相似群體的人產生不同的影響。例如,當 AI 系統提供醫療建議、貸款申請或就業建議時,應該對具有相似症狀、財務狀況或專業資格的人給出相同的建議。我們每個人作為人類,都帶有影響我們決策和行動的固有偏見。這些偏見可能會體現在我們用來訓練 AI 系統的數據中。有時這種操控是無意的,並且很難有意識地知道何時在數據中引入了偏見。
**「不公平」** 包括對某些群體(例如基於種族、性別、年齡或殘疾狀態定義的群體)的負面影響或「傷害」。主要與公平性相關的傷害可分為以下幾類:
- **分配**:例如,偏向某一性別或種族。
- **服務質量**:如果您僅針對特定情境訓練數據,而現實情況更為複雜,則會導致服務表現不佳。例如,一個無法感應深色皮膚的手部肥皂分配器。[參考資料](https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773)
- **貶低**:不公平地批評或標籤某事或某人。例如,一個圖像標籤技術曾經將深色皮膚的人的圖像錯誤標籤為大猩猩。
- **過度或不足代表**:某些群體在某些職業中未被看到,而任何繼續推廣這種情況的服務或功能都在助長傷害。
- **刻板印象**:將某一群體與預先分配的屬性聯繫起來。例如,英語和土耳其語之間的語言翻譯系統可能因與性別相關的刻板印象而產生不準確性。
![翻譯成土耳其語](../../../../1-Introduction/3-fairness/images/gender-bias-translate-en-tr.png)
> 翻譯成土耳其語
![翻譯回英語](../../../../1-Introduction/3-fairness/images/gender-bias-translate-tr-en.png)
> 翻譯回英語
在設計和測試 AI 系統時,我們需要確保 AI 是公平的,並且未被編程為做出偏見或歧視性的決策,這些決策是人類也被禁止做出的。保證 AI 和機器學習的公平性仍然是一個複雜的社會技術挑戰。
### 可靠性與安全性
為了建立信任AI 系統需要在正常和意外情況下保持可靠、安全和一致。了解 AI 系統在各種情境下的行為,尤其是在異常情況下的行為,是非常重要的。在構建 AI 解決方案時,需要大量關注如何處理 AI 解決方案可能遇到的各種情況。例如,自駕車需要將人們的安全放在首位。因此,驅動汽車的 AI 需要考慮汽車可能遇到的所有可能情境例如夜晚、雷暴或暴風雪、孩子橫穿馬路、寵物、道路施工等。AI 系統能夠可靠、安全地處理廣泛條件的能力反映了數據科學家或 AI 開發者在系統設計或測試過程中考慮的預見性水平。
> [🎥 點擊這裡觀看影片:](https://www.microsoft.com/videoplayer/embed/RE4vvIl)
### 包容性
AI 系統應該被設計為能夠吸引並賦能每個人。在設計和實施 AI 系統時,數據科學家和 AI 開發者需要識別並解決系統中可能無意排除某些人的潛在障礙。例如,全球有 10 億人有殘疾。隨著 AI 的進步,他們可以更輕鬆地獲取廣泛的資訊和機會。通過解決這些障礙,可以創造創新機會,開發出能為每個人帶來更好體驗的 AI 產品。
> [🎥 點擊這裡觀看影片AI 中的包容性](https://www.microsoft.com/videoplayer/embed/RE4vl9v)
### 安全性與隱私
AI 系統應該是安全的,並尊重人們的隱私。人們對那些可能危及隱私、資訊或生命的系統信任度較低。在訓練機器學習模型時,我們依賴數據來產生最佳結果。在此過程中,必須考慮數據的來源和完整性。例如,數據是用戶提交的還是公開可用的?接下來,在處理數據時,開發能夠保護機密資訊並抵禦攻擊的 AI 系統至關重要。隨著 AI 的普及,保護隱私和確保重要的個人和商業資訊的安全變得越來越重要且複雜。隱私和數據安全問題需要特別關注,因為數據的可訪問性對於 AI 系統做出準確且有根據的預測和決策至關重要。
> [🎥 點擊這裡觀看影片AI 中的安全性](https://www.microsoft.com/videoplayer/embed/RE4voJF)
- 作為一個行業,我們在隱私和安全性方面取得了顯著進展,這在很大程度上得益於 GDPR通用數據保護條例等法規的推動。
- 然而,對於 AI 系統,我們必須承認在需要更多個人數據以使系統更個性化和有效與隱私之間的緊張關係。
- 就像互聯網誕生時連接電腦一樣,我們也看到了與 AI 相關的安全問題數量的急劇增加。
- 同時,我們也看到 AI 被用於改善安全性。例如,大多數現代防病毒掃描器今天都由 AI 啟發式技術驅動。
- 我們需要確保我們的數據科學流程與最新的隱私和安全實踐和諧融合。
### 透明性
AI 系統應該是可理解的。透明性的一個關鍵部分是解釋 AI 系統及其組件的行為。提高對 AI 系統的理解需要利益相關者了解它們如何以及為什麼運作,以便能夠識別潛在的性能問題、安全和隱私問題、偏見、排他性實踐或意外結果。我們還認為,使用 AI 系統的人應該誠實並坦率地說明何時、為什麼以及如何選擇部署它們,以及它們使用的系統的局限性。例如,如果一家銀行使用 AI 系統來支持其消費者貸款決策,則需要檢查結果並了解哪些數據影響了系統的建議。各國政府開始對各行業的 AI 進行監管,因此數據科學家和組織必須解釋 AI 系統是否符合監管要求,特別是在出現不良結果時。
> [🎥 點擊這裡觀看影片AI 中的透明性](https://www.microsoft.com/videoplayer/embed/RE4voJF)
- 由於 AI 系統非常複雜,很難理解它們的運作方式並解釋結果。
- 這種缺乏理解影響了這些系統的管理、運營和文檔化方式。
- 更重要的是,這種缺乏理解影響了基於這些系統產生的結果所做的決策。
### 責任
設計和部署 AI 系統的人必須對其系統的運作方式負責。責任的必要性在面部識別等敏感技術的使用中尤為重要。最近,對面部識別技術的需求不斷增長,特別是來自執法機構,他們看到了該技術在尋找失蹤兒童等用途中的潛力。然而,這些技術可能會被政府用來威脅其公民的基本自由,例如,對特定個體進行持續監控。因此,數據科學家和組織需要對其 AI 系統對個人或社會的影響負責。
[![領先的 AI 研究人員警告面部識別可能導致大規模監控](../../../../1-Introduction/3-fairness/images/accountability.png)](https://www.youtube.com/watch?v=Wldt8P5V6D0 "Microsoft 的負責任 AI 方法")
> 🎥 點擊上方圖片觀看影片:面部識別可能導致大規模監控的警告
最終,作為第一代將 AI 帶入社會的世代,我們面臨的最大問題之一是如何確保電腦始終對人類負責,以及如何確保設計電腦的人對其他人負責。
## 影響評估
在訓練機器學習模型之前,進行影響評估以了解 AI 系統的目的、預期用途、部署地點以及與系統互動的對象是非常重要的。這些評估對於評審者或測試者來說非常有幫助,因為它們可以知道在識別潛在風險和預期後果時需要考慮哪些因素。
進行影響評估時的重點領域包括:
* **對個人的不利影響**:了解任何限制或要求、不支持的用途或任何已知限制對系統性能的影響至關重要,以確保系統不會以可能對個人造成傷害的方式使用。
* **數據需求**:了解系統如何以及在哪裡使用數據,使評審者能夠探索需要注意的任何數據需求(例如 GDPR 或 HIPPA 數據法規)。此外,檢查數據的來源或數量是否足夠用於訓練。
* **影響摘要**:收集使用系統可能產生的潛在傷害清單。在 ML 生命週期中,檢查是否已緩解或解決識別出的問題。
* **六大核心原則的適用目標**:評估每個原則的目標是否達成,以及是否存在任何差距。
## 使用負責任 AI 進行除錯
與除錯軟體應用程式類似,除錯 AI 系統是識別和解決系統問題的必要過程。許多因素可能導致模型未按預期或負責任地運行。大多數傳統的模型性能指標是模型性能的定量匯總,這不足以分析模型如何違反負責任 AI 原則。此外,機器學習模型是一個黑箱,難以理解其結果的驅動因素,或者在出錯時提供解釋。在本課程的後續部分,我們將學習如何使用負責任 AI 儀表板來幫助除錯 AI 系統。該儀表板為數據科學家和 AI 開發者提供了一個全面的工具,用於執行以下操作:
* **錯誤分析**:識別模型的錯誤分佈,這可能影響系統的公平性或可靠性。
* **模型概覽**:發現模型在數據群體中的性能差異。
* **數據分析**:了解數據分佈並識別數據中可能導致公平性、包容性和可靠性問題的潛在偏見。
* **模型可解釋性**:了解影響或影響模型預測的因素。這有助於解釋模型的行為,這對於透明性和責任感至關重要。
## 🚀 挑戰
為了防止傷害的產生,我們應該:
- 確保參與系統工作的團隊成員具有多樣化的背景和觀點。
- 投資於反映我們社會多樣性的數據集。
- 在機器學習生命週期中開發更好的方法來檢測和糾正負責任 AI 的問題。
思考一些現實生活中的情境,這些情境中模型的不可信性在模型構建和使用中顯而易見。我們還應該考慮什麼?
## [課後測驗](https://ff-quizzes.netlify.app/en/ml/)
## 回顧與自學
在本課中,您已經學習了機器學習中公平性和不公平性概念的一些基礎知識。
觀看這個工作坊以更深入了解相關主題:
- 追求負責任的人工智慧:將原則付諸實踐,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主講
[![負責任的人工智慧工具箱:一個用於構建負責任人工智慧的開源框架](https://img.youtube.com/vi/tGgJCrA-MZU/0.jpg)](https://www.youtube.com/watch?v=tGgJCrA-MZU "RAI Toolbox: 一個用於構建負責任人工智慧的開源框架")
> 🎥 點擊上方圖片觀看影片:負責任的人工智慧工具箱:一個用於構建負責任人工智慧的開源框架,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主講
此外,閱讀以下資源:
- 微軟的負責任人工智慧資源中心:[負責任人工智慧資源 Microsoft AI](https://www.microsoft.com/ai/responsible-ai-resources?activetab=pivot1%3aprimaryr4)
- 微軟的 FATE 研究小組:[FATE人工智慧中的公平性、問責性、透明性與倫理 - Microsoft Research](https://www.microsoft.com/research/theme/fate/)
RAI 工具箱:
- [負責任人工智慧工具箱 GitHub 儲存庫](https://github.com/microsoft/responsible-ai-toolbox)
了解 Azure 機器學習的工具如何確保公平性:
- [Azure 機器學習](https://docs.microsoft.com/azure/machine-learning/concept-fairness-ml?WT.mc_id=academic-77952-leestott)
## 作業
[探索 RAI 工具箱](assignment.md)
---
**免責聲明**
本文件使用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 進行翻譯。我們致力於提供準確的翻譯,但請注意,自動翻譯可能包含錯誤或不準確之處。應以原始語言的文件作為權威來源。對於關鍵資訊,建議尋求專業人工翻譯。我們對因使用此翻譯而產生的任何誤解或錯誤解讀概不負責。