|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "9a6b702d1437c0467e3c5c28d763dac2",
|
|
|
"translation_date": "2025-09-05T09:24:32+00:00",
|
|
|
"source_file": "1-Introduction/3-fairness/README.md",
|
|
|
"language_code": "hk"
|
|
|
}
|
|
|
-->
|
|
|
# 使用負責任的人工智能構建機器學習解決方案
|
|
|
|
|
|

|
|
|
> 草圖由 [Tomomi Imura](https://www.twitter.com/girlie_mac) 提供
|
|
|
|
|
|
## [課前測驗](https://ff-quizzes.netlify.app/en/ml/)
|
|
|
|
|
|
## 簡介
|
|
|
|
|
|
在這個課程中,你將開始了解機器學習如何以及正在影響我們的日常生活。即使是現在,系統和模型已經參與了日常的決策任務,例如醫療診斷、貸款批准或欺詐檢測。因此,確保這些模型能夠提供值得信賴的結果是非常重要的。就像任何軟件應用程序一樣,人工智能系統可能會未達預期或產生不理想的結果。因此,理解和解釋人工智能模型的行為是至關重要的。
|
|
|
|
|
|
想像一下,當你用來構建這些模型的數據缺乏某些人口統計數據(例如種族、性別、政治觀點、宗教)或不成比例地代表某些人口統計數據時會發生什麼?如果模型的輸出被解讀為偏向某些人口統計數據,又會有什麼後果?此外,當模型產生不良結果並對人們造成傷害時,會發生什麼?誰應該對人工智能系統的行為負責?這些是我們在這個課程中將探討的一些問題。
|
|
|
|
|
|
在這節課中,你將:
|
|
|
|
|
|
- 提高對機器學習中公平性及相關傷害的重要性的認識。
|
|
|
- 熟悉探索異常值和不尋常情況以確保可靠性和安全性的實踐。
|
|
|
- 理解設計包容性系統以賦能每個人的必要性。
|
|
|
- 探討保護數據和個人隱私與安全的重要性。
|
|
|
- 認識到採用透明化方法解釋人工智能模型行為的必要性。
|
|
|
- 意識到責任感對於建立對人工智能系統的信任至關重要。
|
|
|
|
|
|
## 先修要求
|
|
|
|
|
|
作為先修要求,請完成“負責任人工智能原則”學習路徑,並觀看以下主題的視頻:
|
|
|
|
|
|
通過以下[學習路徑](https://docs.microsoft.com/learn/modules/responsible-ai-principles/?WT.mc_id=academic-77952-leestott)了解更多關於負責任人工智能的內容。
|
|
|
|
|
|
[](https://youtu.be/dnC8-uUZXSc "微軟的負責任人工智能方法")
|
|
|
|
|
|
> 🎥 點擊上方圖片觀看視頻:微軟的負責任人工智能方法
|
|
|
|
|
|
## 公平性
|
|
|
|
|
|
人工智能系統應該公平對待每個人,避免對相似群體的人產生不同的影響。例如,當人工智能系統提供醫療建議、貸款申請或就業建議時,應該對具有相似症狀、財務狀況或專業資格的人給出相同的建議。我們每個人作為人類,都帶有影響我們決策和行動的固有偏見。這些偏見可能會體現在我們用來訓練人工智能系統的數據中。有時,這種操控可能是無意的。我們往往很難有意識地知道自己何時在數據中引入了偏見。
|
|
|
|
|
|
**「不公平」** 包括對某些群體(例如基於種族、性別、年齡或殘疾狀況定義的群體)的負面影響或「傷害」。主要與公平性相關的傷害可以分為以下幾類:
|
|
|
|
|
|
- **分配**:例如,偏向某一性別或種族。
|
|
|
- **服務質量**:如果你只針對一個特定場景訓練數據,而現實情況更為複雜,則會導致服務表現不佳。例如,一個無法感應深色皮膚的洗手液分配器。[參考](https://gizmodo.com/why-cant-this-soap-dispenser-identify-dark-skin-1797931773)
|
|
|
- **貶低**:不公平地批評或標籤某事或某人。例如,一個圖像標籤技術曾經將深色皮膚的人的照片錯誤標籤為大猩猩。
|
|
|
- **過度或不足代表**:某些群體在某些職業中未被看到,而任何繼續推動這種情況的服務或功能都在助長傷害。
|
|
|
- **刻板印象**:將某一群體與預先分配的屬性聯繫起來。例如,英語和土耳其語之間的語言翻譯系統可能因與性別相關的刻板印象而出現不準確。
|
|
|
|
|
|

|
|
|
> 翻譯成土耳其語
|
|
|
|
|
|

|
|
|
> 翻譯回英語
|
|
|
|
|
|
在設計和測試人工智能系統時,我們需要確保人工智能是公平的,並且不會被編程為做出偏見或歧視性的決策,這些決策是人類也被禁止做出的。保證人工智能和機器學習的公平性仍然是一個複雜的社會技術挑戰。
|
|
|
|
|
|
### 可靠性與安全性
|
|
|
|
|
|
為了建立信任,人工智能系統需要在正常和意外情況下保持可靠、安全和一致。了解人工智能系統在各種情況下的行為,尤其是在異常情況下的行為,是非常重要的。在構建人工智能解決方案時,需要大量關注如何處理人工智能解決方案可能遇到的各種情況。例如,自動駕駛汽車需要將人們的安全放在首位。因此,為汽車提供動力的人工智能需要考慮汽車可能遇到的所有可能情況,例如夜晚、雷暴或暴風雪、孩子橫穿馬路、寵物、道路施工等。人工智能系統能夠可靠、安全地處理廣泛條件的能力,反映了數據科學家或人工智能開發者在設計或測試系統時考慮的預見性水平。
|
|
|
|
|
|
> [🎥 點擊這裡觀看視頻:](https://www.microsoft.com/videoplayer/embed/RE4vvIl)
|
|
|
|
|
|
### 包容性
|
|
|
|
|
|
人工智能系統應該被設計為能夠吸引並賦能每個人。在設計和實施人工智能系統時,數據科學家和人工智能開發者需要識別並解決系統中可能無意中排除某些人的潛在障礙。例如,全球有10億殘疾人士。隨著人工智能的進步,他們可以更輕鬆地獲取廣泛的信息和機會。通過解決這些障礙,可以創造創新機會,並開發出能為每個人帶來更好體驗的人工智能產品。
|
|
|
|
|
|
> [🎥 點擊這裡觀看視頻:人工智能中的包容性](https://www.microsoft.com/videoplayer/embed/RE4vl9v)
|
|
|
|
|
|
### 安全性與隱私
|
|
|
|
|
|
人工智能系統應該是安全的,並尊重人們的隱私。如果系統威脅到人們的隱私、信息或生命,人們對其的信任就會減少。在訓練機器學習模型時,我們依賴數據來產生最佳結果。在此過程中,必須考慮數據的來源和完整性。例如,數據是用戶提交的還是公開可用的?接下來,在處理數據時,開發能夠保護機密信息並抵禦攻擊的人工智能系統至關重要。隨著人工智能的普及,保護隱私和確保重要的個人和商業信息的安全變得越來越重要和複雜。隱私和數據安全問題對於人工智能尤為重要,因為人工智能系統需要訪問數據來對人們做出準確且有根據的預測和決策。
|
|
|
|
|
|
> [🎥 點擊這裡觀看視頻:人工智能中的安全性](https://www.microsoft.com/videoplayer/embed/RE4voJF)
|
|
|
|
|
|
- 作為一個行業,我們在隱私和安全性方面取得了顯著進展,這在很大程度上得益於如GDPR(通用數據保護條例)等法規的推動。
|
|
|
- 然而,對於人工智能系統,我們必須承認在需要更多個人數據以使系統更加個性化和有效與隱私之間的緊張關係。
|
|
|
- 就像互聯網誕生時連接計算機一樣,我們也看到了與人工智能相關的安全問題數量的急劇增加。
|
|
|
- 同時,我們也看到了人工智能被用於改善安全性的例子。例如,大多數現代防病毒掃描器今天都由人工智能啟發的啟發式方法驅動。
|
|
|
- 我們需要確保我們的數據科學流程與最新的隱私和安全實踐和諧融合。
|
|
|
|
|
|
### 透明性
|
|
|
|
|
|
人工智能系統應該是可理解的。透明性的一個關鍵部分是解釋人工智能系統及其組件的行為。提高對人工智能系統的理解需要利益相關者了解它們如何以及為什麼運作,以便能夠識別潛在的性能問題、安全和隱私問題、偏見、排他性做法或意外結果。我們還認為,那些使用人工智能系統的人應該誠實並坦率地說明何時、為什麼以及如何選擇部署它們,以及它們使用的系統的局限性。例如,如果一家銀行使用人工智能系統來支持其消費者貸款決策,則需要檢查結果並了解哪些數據影響了系統的建議。隨著政府開始對各行業的人工智能進行監管,數據科學家和組織必須解釋人工智能系統是否符合監管要求,尤其是在出現不良結果時。
|
|
|
|
|
|
> [🎥 點擊這裡觀看視頻:人工智能中的透明性](https://www.microsoft.com/videoplayer/embed/RE4voJF)
|
|
|
|
|
|
- 由於人工智能系統非常複雜,很難理解它們的工作原理並解釋結果。
|
|
|
- 這種缺乏理解影響了這些系統的管理、運營和文檔化方式。
|
|
|
- 更重要的是,這種缺乏理解影響了基於這些系統產生的結果所做的決策。
|
|
|
|
|
|
### 責任
|
|
|
|
|
|
設計和部署人工智能系統的人必須對其系統的運作負責。責任的必要性在敏感技術(如面部識別)中尤為重要。最近,對面部識別技術的需求不斷增長,尤其是來自執法機構,他們看到了該技術在尋找失蹤兒童等用途中的潛力。然而,這些技術可能會被政府用來威脅公民的基本自由,例如,通過對特定個體進行持續監控。因此,數據科學家和組織需要對其人工智能系統對個人或社會的影響負責。
|
|
|
|
|
|
[](https://www.youtube.com/watch?v=Wldt8P5V6D0 "微軟的負責任人工智能方法")
|
|
|
|
|
|
> 🎥 點擊上方圖片觀看視頻:面部識別可能導致大規模監控的警告
|
|
|
|
|
|
最終,作為第一代將人工智能帶入社會的世代,我們面臨的最大問題之一是如何確保計算機始終對人類負責,以及如何確保設計計算機的人對其他人負責。
|
|
|
|
|
|
## 影響評估
|
|
|
|
|
|
在訓練機器學習模型之前,進行影響評估以了解人工智能系統的目的、預期用途、部署地點以及與系統交互的人是非常重要的。這些評估對於評審者或測試者來說非常有幫助,因為它們可以知道在識別潛在風險和預期後果時需要考慮哪些因素。
|
|
|
|
|
|
進行影響評估時的重點領域包括:
|
|
|
|
|
|
* **對個人的不利影響**。意識到任何限制或要求、不支持的用途或任何已知的限制會妨礙系統性能,對於確保系統不會以可能對個人造成傷害的方式使用至關重要。
|
|
|
* **數據要求**。了解系統如何以及在哪裡使用數據,使評審者能夠探索需要注意的任何數據要求(例如GDPR或HIPPA數據法規)。此外,檢查數據的來源或數量是否足夠用於訓練。
|
|
|
* **影響摘要**。收集使用系統可能產生的潛在傷害清單。在機器學習生命周期中,檢查是否已緩解或解決識別出的問題。
|
|
|
* **每個六大核心原則的適用目標**。評估是否達到了每個原則的目標,以及是否存在任何差距。
|
|
|
|
|
|
## 使用負責任人工智能進行調試
|
|
|
|
|
|
與調試軟件應用程序類似,調試人工智能系統是識別和解決系統問題的必要過程。許多因素可能導致模型未按預期或負責任地運行。大多數傳統的模型性能指標是模型性能的定量匯總,這不足以分析模型如何違反負責任人工智能原則。此外,機器學習模型是一個黑箱,難以理解其結果的驅動因素或在出錯時提供解釋。在本課程的後續部分,我們將學習如何使用負責任人工智能儀表板來幫助調試人工智能系統。該儀表板為數據科學家和人工智能開發者提供了一個全面的工具,用於執行以下操作:
|
|
|
|
|
|
* **錯誤分析**。識別可能影響系統公平性或可靠性的模型錯誤分佈。
|
|
|
* **模型概覽**。發現模型在數據群體中的性能差異。
|
|
|
* **數據分析**。了解數據分佈並識別數據中可能導致公平性、包容性和可靠性問題的潛在偏見。
|
|
|
* **模型可解釋性**。了解影響或影響模型預測的因素。這有助於解釋模型的行為,這對於透明性和責任感至關重要。
|
|
|
|
|
|
## 🚀 挑戰
|
|
|
|
|
|
為了防止傷害的產生,我們應該:
|
|
|
|
|
|
- 確保參與系統工作的團隊成員具有多樣化的背景和觀點
|
|
|
- 投資於反映我們社會多樣性的數據集
|
|
|
- 在機器學習生命周期中開發更好的方法來檢測和糾正負責任人工智能問題
|
|
|
|
|
|
思考一些現實生活中的場景,這些場景中模型的不可信性在模型構建和使用中顯而易見。我們還應該考慮什麼?
|
|
|
|
|
|
## [課後測驗](https://ff-quizzes.netlify.app/en/ml/)
|
|
|
|
|
|
## 回顧與自學
|
|
|
|
|
|
在這節課中,你已經學習了機器學習中公平性和不公平性概念的一些基礎知識。
|
|
|
觀看這個工作坊以深入了解相關主題:
|
|
|
|
|
|
- 追求負責任的人工智能:將原則付諸實踐,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主講
|
|
|
|
|
|
[](https://www.youtube.com/watch?v=tGgJCrA-MZU "RAI Toolbox: 建立負責任人工智能的開源框架")
|
|
|
|
|
|
> 🎥 點擊上方圖片觀看影片:RAI Toolbox: 建立負責任人工智能的開源框架,由 Besmira Nushi、Mehrnoosh Sameki 和 Amit Sharma 主講
|
|
|
|
|
|
此外,閱讀以下資源:
|
|
|
|
|
|
- 微軟的負責任人工智能資源中心:[負責任人工智能資源 – Microsoft AI](https://www.microsoft.com/ai/responsible-ai-resources?activetab=pivot1%3aprimaryr4)
|
|
|
|
|
|
- 微軟的 FATE 研究小組:[FATE:人工智能中的公平性、問責性、透明性和倫理 - Microsoft Research](https://www.microsoft.com/research/theme/fate/)
|
|
|
|
|
|
RAI 工具箱:
|
|
|
|
|
|
- [負責任人工智能工具箱 GitHub 儲存庫](https://github.com/microsoft/responsible-ai-toolbox)
|
|
|
|
|
|
了解 Azure Machine Learning 的工具如何確保公平性:
|
|
|
|
|
|
- [Azure Machine Learning](https://docs.microsoft.com/azure/machine-learning/concept-fairness-ml?WT.mc_id=academic-77952-leestott)
|
|
|
|
|
|
## 作業
|
|
|
|
|
|
[探索 RAI 工具箱](assignment.md)
|
|
|
|
|
|
---
|
|
|
|
|
|
**免責聲明**:
|
|
|
此文件已使用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 翻譯。我們致力於提供準確的翻譯,但請注意,自動翻譯可能包含錯誤或不準確之處。應以原始語言的文件作為權威來源。對於關鍵資訊,建議尋求專業人工翻譯。我們對因使用此翻譯而引起的任何誤解或錯誤詮釋概不負責。 |