You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
228 lines
53 KiB
228 lines
53 KiB
<!--
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
{
|
|
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
|
|
"translation_date": "2025-09-05T21:38:55+00:00",
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
"language_code": "th"
|
|
}
|
|
-->
|
|
# บทนำสู่จริยธรรมข้อมูล
|
|
|
|
| ](../../sketchnotes/02-Ethics.png)|
|
|
|:---:|
|
|
| จริยธรรมวิทยาศาสตร์ข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
|
|
|
|
---
|
|
|
|
เราทุกคนเป็นพลเมืองข้อมูลที่อาศัยอยู่ในโลกที่เต็มไปด้วยข้อมูล
|
|
|
|
แนวโน้มทางการตลาดบอกเราว่าภายในปี 2022 องค์กรขนาดใหญ่ 1 ใน 3 จะซื้อและขายข้อมูลของพวกเขาผ่าน [ตลาดและการแลกเปลี่ยนออนไลน์](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) ในฐานะ **นักพัฒนาแอปพลิเคชัน** เราจะพบว่าการผสานข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูลและระบบอัตโนมัติที่ขับเคลื่อนด้วยอัลกอริทึมเข้ากับประสบการณ์ผู้ใช้ในชีวิตประจำวันนั้นง่ายและถูกลง แต่เมื่อ AI กลายเป็นสิ่งที่แพร่หลาย เราก็ต้องเข้าใจถึงอันตรายที่อาจเกิดขึ้นจาก [การใช้อัลกอริทึมในทางที่ผิด](https://www.youtube.com/watch?v=TQHs8SA1qpk) ในระดับใหญ่ด้วย
|
|
|
|
แนวโน้มยังชี้ให้เห็นว่าเราจะสร้างและบริโภคข้อมูลมากกว่า [180 เซตตะไบต์](https://www.statista.com/statistics/871513/worldwide-data-created/) ภายในปี 2025 ในฐานะ **นักวิทยาศาสตร์ข้อมูล** สิ่งนี้ทำให้เรามีโอกาสเข้าถึงข้อมูลส่วนบุคคลในระดับที่ไม่เคยมีมาก่อน ซึ่งหมายความว่าเราสามารถสร้างโปรไฟล์พฤติกรรมของผู้ใช้และมีอิทธิพลต่อการตัดสินใจในลักษณะที่สร้าง [ภาพลวงตาของการเลือกอย่างอิสระ](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ในขณะเดียวกันก็อาจชักนำผู้ใช้ไปสู่ผลลัพธ์ที่เราต้องการ นอกจากนี้ยังทำให้เกิดคำถามที่กว้างขึ้นเกี่ยวกับความเป็นส่วนตัวของข้อมูลและการคุ้มครองผู้ใช้
|
|
|
|
จริยธรรมข้อมูลจึงกลายเป็น _รั้วป้องกันที่จำเป็น_ สำหรับวิทยาศาสตร์ข้อมูลและวิศวกรรมศาสตร์ ช่วยลดอันตรายที่อาจเกิดขึ้นและผลกระทบที่ไม่ได้ตั้งใจจากการกระทำที่ขับเคลื่อนด้วยข้อมูลของเรา [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ระบุแนวโน้มที่เกี่ยวข้องในด้านจริยธรรมดิจิทัล AI ที่รับผิดชอบ และการกำกับดูแล AI ว่าเป็นตัวขับเคลื่อนสำคัญสำหรับเมกะเทรนด์ที่ใหญ่ขึ้นเกี่ยวกับ _การทำให้เป็นประชาธิปไตย_ และ _การทำให้เป็นอุตสาหกรรม_ ของ AI
|
|
|
|

|
|
|
|
ในบทเรียนนี้ เราจะสำรวจพื้นที่ที่น่าสนใจของจริยธรรมข้อมูล ตั้งแต่แนวคิดและความท้าทายหลัก ไปจนถึงกรณีศึกษาและแนวคิด AI ประยุกต์ เช่น การกำกับดูแล ที่ช่วยสร้างวัฒนธรรมจริยธรรมในทีมและองค์กรที่ทำงานกับข้อมูลและ AI
|
|
|
|
|
|
## [แบบทดสอบก่อนการบรรยาย](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
|
|
|
|
## คำจำกัดความพื้นฐาน
|
|
|
|
เริ่มต้นด้วยการทำความเข้าใจคำศัพท์พื้นฐานกันก่อน
|
|
|
|
คำว่า "จริยธรรม" มาจาก [คำภาษากรีก "ethikos"](https://en.wikipedia.org/wiki/Ethics) (และรากศัพท์ "ethos") ซึ่งหมายถึง _ลักษณะนิสัยหรือธรรมชาติทางศีลธรรม_
|
|
|
|
**จริยธรรม** หมายถึงค่านิยมร่วมกันและหลักการทางศีลธรรมที่กำหนดพฤติกรรมของเราในสังคม จริยธรรมไม่ได้ขึ้นอยู่กับกฎหมาย แต่ขึ้นอยู่กับบรรทัดฐานที่ยอมรับกันอย่างกว้างขวางว่าอะไรคือ "ถูกหรือผิด" อย่างไรก็ตาม การพิจารณาด้านจริยธรรมสามารถมีอิทธิพลต่อการกำกับดูแลขององค์กรและกฎระเบียบของรัฐบาลที่สร้างแรงจูงใจให้ปฏิบัติตามมากขึ้น
|
|
|
|
**จริยธรรมข้อมูล** เป็น [สาขาใหม่ของจริยธรรม](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) ที่ "ศึกษาและประเมินปัญหาทางศีลธรรมที่เกี่ยวข้องกับ _ข้อมูล อัลกอริทึม และการปฏิบัติที่เกี่ยวข้อง_" โดยที่ **"ข้อมูล"** มุ่งเน้นไปที่การกระทำที่เกี่ยวข้องกับการสร้าง การบันทึก การดูแล การประมวลผล การเผยแพร่ การแบ่งปัน และการใช้งาน **"อัลกอริทึม"** มุ่งเน้นไปที่ AI ตัวแทน การเรียนรู้ของเครื่อง และหุ่นยนต์ และ **"การปฏิบัติ"** มุ่งเน้นไปที่หัวข้อต่างๆ เช่น นวัตกรรมที่รับผิดชอบ การเขียนโปรแกรม การแฮ็ก และจรรยาบรรณ
|
|
|
|
**จริยธรรมประยุกต์** หมายถึง [การประยุกต์ใช้ข้อพิจารณาทางศีลธรรมในทางปฏิบัติ](https://en.wikipedia.org/wiki/Applied_ethics) เป็นกระบวนการตรวจสอบปัญหาด้านจริยธรรมในบริบทของ _การกระทำ ผลิตภัณฑ์ และกระบวนการในโลกแห่งความเป็นจริง_ และดำเนินการแก้ไขเพื่อให้มั่นใจว่าสิ่งเหล่านี้ยังคงสอดคล้องกับค่านิยมทางจริยธรรมที่กำหนดไว้
|
|
|
|
**วัฒนธรรมจริยธรรม** หมายถึง [_การทำให้จริยธรรมประยุกต์เป็นรูปธรรม_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) เพื่อให้มั่นใจว่าหลักการและการปฏิบัติด้านจริยธรรมของเราได้รับการนำไปใช้อย่างสม่ำเสมอและขยายได้ทั่วทั้งองค์กร วัฒนธรรมจริยธรรมที่ประสบความสำเร็จจะกำหนดหลักการด้านจริยธรรมทั่วทั้งองค์กร ให้แรงจูงใจที่มีความหมายสำหรับการปฏิบัติตาม และเสริมสร้างบรรทัดฐานด้านจริยธรรมโดยการสนับสนุนและขยายพฤติกรรมที่พึงประสงค์ในทุกระดับขององค์กร
|
|
|
|
|
|
## แนวคิดด้านจริยธรรม
|
|
|
|
ในส่วนนี้ เราจะพูดถึงแนวคิดต่างๆ เช่น **ค่านิยมร่วมกัน** (หลักการ) และ **ความท้าทายด้านจริยธรรม** (ปัญหา) สำหรับจริยธรรมข้อมูล - และสำรวจ **กรณีศึกษา** ที่ช่วยให้คุณเข้าใจแนวคิดเหล่านี้ในบริบทของโลกแห่งความเป็นจริง
|
|
|
|
### 1. หลักการด้านจริยธรรม
|
|
|
|
กลยุทธ์จริยธรรมข้อมูลทุกกลยุทธ์เริ่มต้นด้วยการกำหนด _หลักการด้านจริยธรรม_ - "ค่านิยมร่วมกัน" ที่อธิบายพฤติกรรมที่ยอมรับได้ และชี้นำการกระทำที่สอดคล้องในโครงการข้อมูลและ AI ของเรา คุณสามารถกำหนดสิ่งเหล่านี้ในระดับบุคคลหรือทีม อย่างไรก็ตาม องค์กรขนาดใหญ่มักจะกำหนดสิ่งเหล่านี้ในแถลงการณ์พันธกิจหรือกรอบงาน _AI ที่มีจริยธรรม_ ที่กำหนดในระดับองค์กรและบังคับใช้อย่างสม่ำเสมอในทุกทีม
|
|
|
|
**ตัวอย่าง:** แถลงการณ์พันธกิจ [AI ที่มีความรับผิดชอบ](https://www.microsoft.com/en-us/ai/responsible-ai) ของ Microsoft ระบุว่า: _"เรามุ่งมั่นที่จะพัฒนา AI โดยยึดหลักจริยธรรมที่ให้ความสำคัญกับผู้คนเป็นอันดับแรก"_ - โดยระบุหลักการด้านจริยธรรม 6 ข้อในกรอบงานด้านล่าง:
|
|
|
|

|
|
|
|
มาสำรวจหลักการเหล่านี้กันสั้นๆ _ความโปร่งใส_ และ _ความรับผิดชอบ_ เป็นค่านิยมพื้นฐานที่หลักการอื่นๆ สร้างขึ้น - ดังนั้นเรามาเริ่มต้นที่นี่:
|
|
|
|
* [**ความรับผิดชอบ**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้ผู้ปฏิบัติงาน _รับผิดชอบ_ ต่อการดำเนินงานด้านข้อมูลและ AI ของพวกเขา และการปฏิบัติตามหลักการด้านจริยธรรมเหล่านี้
|
|
* [**ความโปร่งใส**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้มั่นใจว่าการกระทำด้านข้อมูลและ AI นั้น _เข้าใจได้_ (ตีความได้) สำหรับผู้ใช้ โดยอธิบายว่าอะไรและทำไมเบื้องหลังการตัดสินใจ
|
|
* [**ความเป็นธรรม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - มุ่งเน้นไปที่การทำให้มั่นใจว่า AI ปฏิบัติต่อ _ทุกคน_ อย่างเป็นธรรม โดยจัดการกับอคติทางสังคม-เทคนิคที่เป็นระบบหรือโดยนัยในข้อมูลและระบบ
|
|
* [**ความน่าเชื่อถือและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ทำให้มั่นใจว่า AI มีพฤติกรรม _สอดคล้อง_ กับค่านิยมที่กำหนดไว้ ลดอันตรายที่อาจเกิดขึ้นหรือผลกระทบที่ไม่ได้ตั้งใจ
|
|
* [**ความเป็นส่วนตัวและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการทำความเข้าใจสายข้อมูล และให้ _ความเป็นส่วนตัวของข้อมูลและการป้องกันที่เกี่ยวข้อง_ แก่ผู้ใช้
|
|
* [**การมีส่วนร่วม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการออกแบบโซลูชัน AI ด้วยความตั้งใจ ปรับให้เหมาะสมเพื่อตอบสนอง _ความต้องการและความสามารถของมนุษย์ที่หลากหลาย_
|
|
|
|
> 🚨 ลองคิดดูว่าแถลงการณ์พันธกิจจริยธรรมข้อมูลของคุณจะเป็นอย่างไร สำรวจกรอบงาน AI ที่มีจริยธรรมจากองค์กรอื่นๆ - นี่คือตัวอย่างจาก [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), และ [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) ค่านิยมร่วมกันที่พวกเขามีเหมือนกันคืออะไร? หลักการเหล่านี้เกี่ยวข้องกับผลิตภัณฑ์ AI หรืออุตสาหกรรมที่พวกเขาดำเนินการอย่างไร?
|
|
|
|
### 2. ความท้าทายด้านจริยธรรม
|
|
|
|
เมื่อเรากำหนดหลักการด้านจริยธรรมแล้ว ขั้นตอนต่อไปคือการประเมินการกระทำด้านข้อมูลและ AI ของเราเพื่อดูว่าพวกมันสอดคล้องกับค่านิยมร่วมกันเหล่านั้นหรือไม่ ลองพิจารณาการกระทำของคุณในสองหมวดหมู่: _การเก็บรวบรวมข้อมูล_ และ _การออกแบบอัลกอริทึม_
|
|
|
|
ในการเก็บรวบรวมข้อมูล การกระทำมักจะเกี่ยวข้องกับ **ข้อมูลส่วนบุคคล** หรือข้อมูลที่สามารถระบุตัวบุคคลได้ (PII) สำหรับบุคคลที่ยังมีชีวิตอยู่ ซึ่งรวมถึง [รายการข้อมูลที่ไม่ใช่ข้อมูลส่วนบุคคลที่หลากหลาย](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) ที่ _รวมกัน_ สามารถระบุตัวบุคคลได้ ความท้าทายด้านจริยธรรมอาจเกี่ยวข้องกับ _ความเป็นส่วนตัวของข้อมูล_ _การเป็นเจ้าของข้อมูล_ และหัวข้อที่เกี่ยวข้อง เช่น _การยินยอมที่ได้รับการแจ้ง_ และ _สิทธิในทรัพย์สินทางปัญญา_ ของผู้ใช้
|
|
|
|
ในการออกแบบอัลกอริทึม การกระทำจะเกี่ยวข้องกับการเก็บรวบรวมและดูแล **ชุดข้อมูล** จากนั้นใช้ชุดข้อมูลเหล่านี้เพื่อฝึกอบรมและปรับใช้ **โมเดลข้อมูล** ที่คาดการณ์ผลลัพธ์หรือทำการตัดสินใจอัตโนมัติในบริบทของโลกแห่งความเป็นจริง ความท้าทายด้านจริยธรรมอาจเกิดจาก _อคติในชุดข้อมูล_ _ปัญหาคุณภาพของข้อมูล_ _ความไม่เป็นธรรม_ และ _การบิดเบือน_ ในอัลกอริทึม - รวมถึงปัญหาบางอย่างที่เป็นระบบ
|
|
|
|
ในทั้งสองกรณี ความท้าทายด้านจริยธรรมเน้นพื้นที่ที่การกระทำของเราอาจขัดแย้งกับค่านิยมร่วมกันของเรา เพื่อที่จะตรวจจับ บรรเทา ลด หรือกำจัดข้อกังวลเหล่านี้ - เราจำเป็นต้องตั้งคำถามทางศีลธรรม "ใช่/ไม่ใช่" ที่เกี่ยวข้องกับการกระทำของเรา จากนั้นดำเนินการแก้ไขตามความจำเป็น มาดูความท้าทายด้านจริยธรรมบางประการและคำถามทางศีลธรรมที่พวกมันก่อให้เกิด:
|
|
|
|
|
|
#### 2.1 การเป็นเจ้าของข้อมูล
|
|
|
|
การเก็บรวบรวมข้อมูลมักเกี่ยวข้องกับข้อมูลส่วนบุคคลที่สามารถระบุตัวตนของเจ้าของข้อมูลได้ [การเป็นเจ้าของข้อมูล](https://permission.io/blog/data-ownership) หมายถึง _การควบคุม_ และ [_สิทธิของผู้ใช้_](https://permission.io/blog/data-ownership) ที่เกี่ยวข้องกับการสร้าง การประมวลผล และการเผยแพร่ข้อมูล
|
|
|
|
คำถามทางศีลธรรมที่เราต้องถามคือ:
|
|
* ใครเป็นเจ้าของข้อมูล? (ผู้ใช้หรือองค์กร)
|
|
* เจ้าของข้อมูลมีสิทธิอะไรบ้าง? (เช่น การเข้าถึง การลบ การพกพา)
|
|
* องค์กรมีสิทธิอะไรบ้าง? (เช่น การแก้ไขรีวิวผู้ใช้ที่เป็นอันตราย)
|
|
|
|
#### 2.2 การยินยอมที่ได้รับการแจ้ง
|
|
|
|
[การยินยอมที่ได้รับการแจ้ง](https://legaldictionary.net/informed-consent/) หมายถึงการกระทำที่ผู้ใช้ยอมรับการกระทำ (เช่น การเก็บข้อมูล) โดยมี _ความเข้าใจอย่างเต็มที่_ เกี่ยวกับข้อเท็จจริงที่เกี่ยวข้อง รวมถึงวัตถุประสงค์ ความเสี่ยงที่อาจเกิดขึ้น และทางเลือกอื่นๆ
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ผู้ใช้ (เจ้าของข้อมูล) ให้อนุญาตสำหรับการเก็บและใช้ข้อมูลหรือไม่?
|
|
* ผู้ใช้เข้าใจวัตถุประสงค์ของการเก็บข้อมูลนั้นหรือไม่?
|
|
* ผู้ใช้เข้าใจถึงความเสี่ยงที่อาจเกิดขึ้นจากการมีส่วนร่วมของพวกเขาหรือไม่?
|
|
|
|
#### 2.3 ทรัพย์สินทางปัญญา
|
|
|
|
[ทรัพย์สินทางปัญญา](https://en.wikipedia.org/wiki/Intellectual_property) หมายถึงการสร้างสรรค์ที่ไม่มีตัวตนซึ่งเกิดจากความคิดริเริ่มของมนุษย์ ซึ่งอาจ _มีมูลค่าทางเศรษฐกิจ_ ต่อบุคคลหรือธุรกิจ
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ข้อมูลที่เก็บรวบรวมมีมูลค่าทางเศรษฐกิจต่อผู้ใช้หรือธุรกิจหรือไม่?
|
|
* **ผู้ใช้** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
|
|
* **องค์กร** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
|
|
* หากมีสิทธิ์เหล่านี้ เราได้ปกป้องสิทธิ์เหล่านี้อย่างไร?
|
|
|
|
#### 2.4 ความเป็นส่วนตัวของข้อมูล
|
|
|
|
[ความเป็นส่วนตัวของข้อมูล](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) หรือความเป็นส่วนตัวของข้อมูลหมายถึงการรักษาความเป็นส่วนตัวของผู้ใช้และการปกป้องตัวตนของผู้ใช้เกี่ยวกับข้อมูลที่สามารถระบุตัวตนได้
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ข้อมูลส่วนบุคคลของผู้ใช้ได้รับการป้องกันจากการแฮ็กและการรั่วไหลหรือไม่?
|
|
* ข้อมูลของผู้ใช้สามารถเข้าถึงได้เฉพาะผู้ใช้ที่ได้รับอนุญาตและบริบทที่เหมาะสมหรือไม่?
|
|
* ความเป็นนิรนามของผู้ใช้ได้รับการรักษาไว้เมื่อมี
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) ตรวจสอบว่า การออกแบบอัลกอริธึมมีการเลือกปฏิบัติต่อกลุ่มย่อยเฉพาะของข้อมูลหรือไม่ ซึ่งอาจนำไปสู่ [ผลกระทบที่อาจเกิดขึ้น](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) ในเรื่อง _การจัดสรรทรัพยากร_ (เช่น การปฏิเสธหรือระงับทรัพยากรจากกลุ่มนั้น) และ _คุณภาพของบริการ_ (เช่น AI มีความแม่นยำสำหรับบางกลุ่มน้อยกว่ากลุ่มอื่น)
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* เราได้ประเมินความแม่นยำของโมเดลสำหรับกลุ่มย่อยและเงื่อนไขที่หลากหลายหรือไม่?
|
|
* เราได้ตรวจสอบระบบเพื่อหาผลกระทบที่อาจเกิดขึ้น (เช่น การเหมารวม) หรือไม่?
|
|
* เราสามารถปรับปรุงข้อมูลหรือฝึกโมเดลใหม่เพื่อลดผลกระทบที่พบได้หรือไม่?
|
|
|
|
สำรวจแหล่งข้อมูล เช่น [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) เพื่อเรียนรู้เพิ่มเติม
|
|
|
|
#### 2.9 การบิดเบือนข้อมูล
|
|
|
|
[Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) เกี่ยวกับการตั้งคำถามว่า เรากำลังสื่อสารข้อมูลเชิงลึกจากข้อมูลที่รายงานอย่างซื่อสัตย์ในลักษณะที่หลอกลวงเพื่อสนับสนุนเรื่องราวที่ต้องการหรือไม่
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* เรากำลังรายงานข้อมูลที่ไม่ครบถ้วนหรือไม่ถูกต้องหรือไม่?
|
|
* เรากำลังแสดงข้อมูลในลักษณะที่นำไปสู่ข้อสรุปที่ทำให้เข้าใจผิดหรือไม่?
|
|
* เรากำลังใช้เทคนิคทางสถิติที่เลือกสรรเพื่อบิดเบือนผลลัพธ์หรือไม่?
|
|
* มีคำอธิบายทางเลือกอื่นที่อาจนำไปสู่ข้อสรุปที่แตกต่างหรือไม่?
|
|
|
|
#### 2.10 การเลือกอย่างเสรี
|
|
[Illusion of Free Choice](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) เกิดขึ้นเมื่อ "สถาปัตยกรรมการเลือก" ของระบบใช้การตัดสินใจของอัลกอริธึมเพื่อชักจูงให้ผู้คนเลือกผลลัพธ์ที่ต้องการ ในขณะที่ดูเหมือนว่าพวกเขามีตัวเลือกและการควบคุม สิ่งเหล่านี้ [dark patterns](https://www.darkpatterns.org/) อาจก่อให้เกิดผลกระทบทางสังคมและเศรษฐกิจต่อผู้ใช้ เนื่องจากการตัดสินใจของผู้ใช้อาจส่งผลต่อโปรไฟล์พฤติกรรม ซึ่งอาจขยายผลกระทบในอนาคต
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* ผู้ใช้เข้าใจผลกระทบของการตัดสินใจนั้นหรือไม่?
|
|
* ผู้ใช้ทราบถึงตัวเลือก (ทางเลือก) และข้อดีข้อเสียของแต่ละตัวเลือกหรือไม่?
|
|
* ผู้ใช้สามารถย้อนกลับการตัดสินใจที่เป็นอัตโนมัติหรือได้รับอิทธิพลในภายหลังได้หรือไม่?
|
|
|
|
### 3. กรณีศึกษา
|
|
|
|
เพื่อให้เข้าใจความท้าทายด้านจริยธรรมในบริบทของโลกจริง การศึกษากรณีตัวอย่างที่แสดงถึงผลกระทบและผลลัพธ์ที่อาจเกิดขึ้นต่อบุคคลและสังคมเมื่อมีการละเลยจริยธรรมเป็นสิ่งสำคัญ
|
|
|
|
ตัวอย่างบางส่วน:
|
|
|
|
| ความท้าทายด้านจริยธรรม | กรณีศึกษา |
|
|
|--- |--- |
|
|
| **การยินยอมโดยได้รับข้อมูล** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - ชายชาวแอฟริกันอเมริกันที่เข้าร่วมการศึกษานี้ได้รับสัญญาว่าจะได้รับการดูแลทางการแพทย์ฟรี _แต่ถูกหลอกลวง_ โดยนักวิจัยที่ไม่แจ้งให้ทราบถึงการวินิจฉัยหรือการรักษาที่มีอยู่ ผู้เข้าร่วมหลายคนเสียชีวิต และคู่สมรสหรือบุตรได้รับผลกระทบ การศึกษานี้ดำเนินไปนานถึง 40 ปี |
|
|
| **ความเป็นส่วนตัวของข้อมูล** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) มอบข้อมูลการให้คะแนนภาพยนตร์แบบไม่ระบุตัวตนจำนวน _10 ล้านรายการจากลูกค้า 50,000 คน_ ให้กับนักวิจัยเพื่อปรับปรุงอัลกอริธึมการแนะนำ อย่างไรก็ตาม นักวิจัยสามารถเชื่อมโยงข้อมูลที่ไม่ระบุตัวตนกับข้อมูลที่สามารถระบุตัวตนได้ใน _ชุดข้อมูลภายนอก_ (เช่น ความคิดเห็นใน IMDb) ทำให้สามารถ "ระบุตัวตน" ของสมาชิก Netflix บางคนได้ |
|
|
| **อคติในการเก็บข้อมูล** | 2013 - เมืองบอสตัน [พัฒนา Street Bump](https://www.boston.gov/transportation/street-bump) แอปที่ให้พลเมืองรายงานหลุมบ่อ เพื่อให้เมืองมีข้อมูลถนนที่ดีขึ้นในการแก้ไขปัญหา อย่างไรก็ตาม [ผู้คนในกลุ่มรายได้ต่ำมีการเข้าถึงรถยนต์และโทรศัพท์น้อยกว่า](https://hbr.org/2013/04/the-hidden-biases-in-big-data) ทำให้ปัญหาถนนของพวกเขาไม่ปรากฏในแอปนี้ นักพัฒนาทำงานร่วมกับนักวิชาการเพื่อแก้ไขปัญหา _การเข้าถึงที่เท่าเทียมและช่องว่างทางดิจิทัล_ เพื่อความเป็นธรรม |
|
|
| **ความเป็นธรรมของอัลกอริธึม** | 2018 - การศึกษา [Gender Shades Study](http://gendershades.org/overview.html) ของ MIT ประเมินความแม่นยำของ AI ในการจำแนกเพศ โดยเปิดเผยช่องว่างในความแม่นยำสำหรับผู้หญิงและคนผิวสี [Apple Card ปี 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ดูเหมือนจะให้เครดิตแก่ผู้หญิงน้อยกว่าผู้ชาย ทั้งสองกรณีแสดงให้เห็นถึงปัญหาอคติในอัลกอริธึมที่นำไปสู่ผลกระทบทางเศรษฐกิจและสังคม |
|
|
| **การบิดเบือนข้อมูล** | 2020 - [กรมสาธารณสุขจอร์เจียเผยแพร่กราฟ COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) ที่ดูเหมือนจะทำให้ประชาชนเข้าใจผิดเกี่ยวกับแนวโน้มของจำนวนผู้ป่วยที่ยืนยัน โดยการจัดลำดับแกน x ที่ไม่เป็นไปตามลำดับเวลา นี่คือตัวอย่างของการบิดเบือนข้อมูลผ่านการแสดงภาพ |
|
|
| **ภาพลวงตาของการเลือกอย่างเสรี** | 2020 - แอปการเรียนรู้ [ABCmouse จ่ายเงิน 10 ล้านดอลลาร์เพื่อยุติข้อร้องเรียนของ FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) ซึ่งผู้ปกครองถูกบังคับให้จ่ายค่าสมัครสมาชิกที่ไม่สามารถยกเลิกได้ นี่คือตัวอย่างของ dark patterns ในสถาปัตยกรรมการเลือก ที่ชักจูงให้ผู้ใช้เลือกสิ่งที่อาจเป็นอันตราย |
|
|
| **ความเป็นส่วนตัวของข้อมูลและสิทธิของผู้ใช้** | 2021 - [การรั่วไหลของข้อมูล Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) เปิดเผยข้อมูลของผู้ใช้ 530 ล้านคน ส่งผลให้ต้องจ่ายค่าปรับ 5 พันล้านดอลลาร์ให้กับ FTC อย่างไรก็ตาม Facebook ปฏิเสธที่จะแจ้งให้ผู้ใช้ทราบถึงการรั่วไหล ซึ่งเป็นการละเมิดสิทธิของผู้ใช้เกี่ยวกับความโปร่งใสและการเข้าถึงข้อมูล |
|
|
|
|
ต้องการสำรวจกรณีศึกษาเพิ่มเติมหรือไม่? ลองดูแหล่งข้อมูลเหล่านี้:
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ด้านจริยธรรมในอุตสาหกรรมที่หลากหลาย
|
|
* [หลักสูตร Data Science Ethics](https://www.coursera.org/learn/data-science-ethics#syllabus) - กรณีศึกษาสำคัญที่ถูกสำรวจ
|
|
* [ตัวอย่างที่เกิดปัญหา](https://deon.drivendata.org/examples/) - รายการตรวจสอบ Deon พร้อมตัวอย่าง
|
|
|
|
> 🚨 ลองคิดถึงกรณีศึกษาที่คุณเคยเห็น - คุณเคยประสบหรือได้รับผลกระทบจากความท้าทายด้านจริยธรรมที่คล้ายกันในชีวิตของคุณหรือไม่? คุณสามารถนึกถึงกรณีศึกษาอื่นที่แสดงถึงความท้าทายด้านจริยธรรมที่เราได้พูดถึงในส่วนนี้ได้หรือไม่?
|
|
|
|
## จริยธรรมประยุกต์
|
|
|
|
เราได้พูดถึงแนวคิดด้านจริยธรรม ความท้าทาย และกรณีศึกษาในบริบทของโลกจริง แต่เราจะเริ่มต้น _ประยุกต์ใช้_ หลักการและแนวปฏิบัติด้านจริยธรรมในโครงการของเราได้อย่างไร? และเราจะ _ทำให้เป็นระบบ_ แนวปฏิบัติเหล่านี้เพื่อการกำกับดูแลที่ดีขึ้นได้อย่างไร? มาสำรวจวิธีแก้ปัญหาในโลกจริงกัน:
|
|
|
|
### 1. จรรยาบรรณวิชาชีพ
|
|
|
|
จรรยาบรรณวิชาชีพเป็นตัวเลือกหนึ่งสำหรับองค์กรในการ "จูงใจ" สมาชิกให้สนับสนุนหลักการด้านจริยธรรมและพันธกิจขององค์กร จรรยาบรรณเป็น _แนวทางทางศีลธรรม_ สำหรับพฤติกรรมวิชาชีพ ช่วยให้พนักงานหรือตัดสินใจที่สอดคล้องกับหลักการขององค์กร อย่างไรก็ตาม จรรยาบรรณจะมีประสิทธิภาพเท่ากับการปฏิบัติตามโดยสมัครใจของสมาชิกเท่านั้น หลายองค์กรจึงเสนอรางวัลและบทลงโทษเพิ่มเติมเพื่อกระตุ้นให้สมาชิกปฏิบัติตาม
|
|
|
|
ตัวอย่าง:
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
|
|
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (สร้างขึ้นในปี 2013)
|
|
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (ตั้งแต่ปี 1993)
|
|
|
|
> 🚨 คุณเป็นสมาชิกขององค์กรวิศวกรรมหรือวิทยาศาสตร์ข้อมูลวิชาชีพหรือไม่? ลองสำรวจเว็บไซต์ของพวกเขาเพื่อดูว่าพวกเขากำหนดจรรยาบรรณวิชาชีพหรือไม่ สิ่งนี้บอกอะไรเกี่ยวกับหลักการด้านจริยธรรมของพวกเขา? พวกเขา "จูงใจ" สมาชิกให้ปฏิบัติตามจรรยาบรรณอย่างไร?
|
|
|
|
### 2. รายการตรวจสอบด้านจริยธรรม
|
|
|
|
ในขณะที่จรรยาบรรณวิชาชีพกำหนด _พฤติกรรมด้านจริยธรรม_ ที่จำเป็นจากผู้ปฏิบัติงาน แต่ [มีข้อจำกัดที่ทราบกันดี](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ในการบังคับใช้ โดยเฉพาะในโครงการขนาดใหญ่ ผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลหลายคนจึง [สนับสนุนการใช้รายการตรวจสอบ](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ซึ่งสามารถ **เชื่อมโยงหลักการกับแนวปฏิบัติ** ในลักษณะที่กำหนดได้และนำไปปฏิบัติได้จริง
|
|
|
|
รายการตรวจสอบเปลี่ยนคำถามให้เป็นงาน "ใช่/ไม่ใช่" ที่สามารถนำไปปฏิบัติได้ ทำให้สามารถติดตามได้เป็นส่วนหนึ่งของกระบวนการปล่อยผลิตภัณฑ์มาตรฐาน
|
|
|
|
ตัวอย่าง:
|
|
* [Deon](https://deon.drivendata.org/) - รายการตรวจสอบจริยธรรมข้อมูลทั่วไปที่สร้างจาก [คำแนะนำในอุตสาหกรรม](https://deon.drivendata.org/#checklist-citations) พร้อมเครื่องมือบรรทัดคำสั่งสำหรับการผสานรวมที่ง่ายดาย
|
|
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - ให้คำแนะนำทั่วไปสำหรับแนวปฏิบัติในการจัดการข้อมูลจากมุมมองทางกฎหมายและสังคม
|
|
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - สร้างโดยผู้ปฏิบัติงาน AI เพื่อสนับสนุนการนำการตรวจสอบความเป็นธรรมมาใช้ในวงจรการพัฒนา AI
|
|
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - กรอบงานที่เปิดกว้างมากขึ้น โครงสร้างสำหรับการสำรวจปัญหาด้านจริยธรรมในบริบทของการออกแบบ การดำเนินการ และองค์กร
|
|
|
|
### 3. กฎระเบียบด้านจริยธรรม
|
|
|
|
จริยธรรมเกี่ยวกับการกำหนดค่านิยมร่วมกันและการทำสิ่งที่ถูกต้อง _โดยสมัครใจ_ **การปฏิบัติตาม** หมายถึง _การปฏิบัติตามกฎหมาย_ หากและเมื่อมีการกำหนดไว้ **การกำกับดูแล** ครอบคลุมถึงวิธีการทั้งหมดที่องค์กรดำเนินการเพื่อบังคับใช้หลักการด้านจริยธรรมและปฏิบัติตามกฎหมายที่กำหนดไว้
|
|
|
|
ปัจจุบัน การกำกับดูแลมีสองรูปแบบในองค์กร ประการแรกคือการกำหนด **AI ที่มีจริยธรรม** และการจัดตั้งแนวปฏิบัติเพื่อทำให้การนำไปใช้เป็นระบบในทุกโครงการที่เกี่ยวข้องกับ AI ในองค์กร ประการที่สองคือการปฏิบัติตาม **กฎระเบียบการคุ้มครองข้อมูล** ที่รัฐบาลกำหนดสำหรับภูมิภาคที่องค์กรดำเนินการอยู่
|
|
|
|
ตัวอย่างกฎระเบียบการคุ้มครองข้อมูลและความเป็นส่วนตัว:
|
|
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - ควบคุมการเก็บรวบรวม การใช้ และการเปิดเผยข้อมูลส่วนบุคคลของ _รัฐบาลกลางสหรัฐฯ_
|
|
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ปกป้องข้อมูลสุขภาพส่วนบุคคล
|
|
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ปกป้องความเป็นส่วนตัวของข้อมูลเด็กอายุต่ำกว่า 13 ปี
|
|
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ให้สิทธิ์ผู้ใช้ การคุ้มครองข้อมูล และความเป็นส่วนตัว
|
|
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ให้สิทธิ์ผู้บริโภคมากขึ้นเกี่ยวกับข้อมูล (ส่วนบุคคล) ของพวกเขา
|
|
* `2021`, [กฎหมายคุ้มครองข้อมูลส่วนบุคคลของจีน](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) เพิ่งผ่าน ซึ่งเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวของข้อมูลออนไลน์ที่เข้มงวดที่สุดในโลก
|
|
|
|
> 🚨 สหภาพยุโรปกำหนด GDPR (General Data Protection Regulation) ซึ่งยังคงเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวของข้อมูลที่มีอิทธิพลมากที่สุดในปัจจุบัน คุณรู้หรือไม่ว่ากฎระเบียบนี้ยังระบุ [8 สิทธิ์ของผู้ใช้](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) เพื่อปกป้องความเป็นส่วนตัวทางดิจิทัลและข้อมูลส่วนบุคคลของพลเมือง? เรียนรู้ว่าสิทธิ์เหล่านี้คืออะไรและเหตุใดจึงสำคัญ
|
|
|
|
### 4. วัฒนธรรมด้านจริยธรรม
|
|
|
|
โปรดทราบว่ายังคงมีช่องว่างที่จับต้องไม่ได้ระหว่าง _การปฏิบัติตาม_ (การทำเพียงพอเพื่อให้เป็นไปตาม "ตัวอักษรของกฎหมาย") และการแก้ไข [ปัญหาระบบ](https://www.coursera.org/learn/data-science-ethics/home/week/4) (เช่น การแข็งตัวของระบบ ความไม่สมดุลของข้อมูล และความไม่เป็นธรรมในการกระจาย) ที่สามารถเร่งการใช้งาน AI ในทางที่ผิดได้
|
|
|
|
การแก้ไขปัญหาหลังนี้ต้องการ [แนว
|
|
* [หลักการของ AI ที่มีความรับผิดชอบ](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - เส้นทางการเรียนรู้ฟรีจาก Microsoft Learn
|
|
* [จริยธรรมและวิทยาศาสตร์ข้อมูล](https://resources.oreilly.com/examples/0636920203964) - หนังสืออิเล็กทรอนิกส์จาก O'Reilly (M. Loukides, H. Mason และคนอื่น ๆ)
|
|
* [จริยธรรมในวิทยาศาสตร์ข้อมูล](https://www.coursera.org/learn/data-science-ethics#syllabus) - คอร์สออนไลน์จากมหาวิทยาลัยมิชิแกน
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - กรณีศึกษาจากมหาวิทยาลัยเท็กซัส
|
|
|
|
# งานที่ได้รับมอบหมาย
|
|
|
|
[เขียนกรณีศึกษาด้านจริยธรรมข้อมูล](assignment.md)
|
|
|
|
---
|
|
|
|
**ข้อจำกัดความรับผิดชอบ**:
|
|
เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้ |