You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
225 lines
53 KiB
225 lines
53 KiB
<!--
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
{
|
|
"original_hash": "8796f41f566a0a8ebb72863a83d558ed",
|
|
"translation_date": "2025-08-26T21:19:22+00:00",
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
"language_code": "th"
|
|
}
|
|
-->
|
|
# บทนำสู่จริยธรรมข้อมูล
|
|
|
|
| ](../../sketchnotes/02-Ethics.png)|
|
|
|:---:|
|
|
| จริยธรรมข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ |
|
|
|
|
---
|
|
|
|
เราทุกคนเป็นพลเมืองข้อมูลที่อาศัยอยู่ในโลกที่เต็มไปด้วยข้อมูล
|
|
|
|
แนวโน้มตลาดบอกเราว่าภายในปี 2022 องค์กรขนาดใหญ่ 1 ใน 3 จะซื้อและขายข้อมูลของพวกเขาผ่าน [ตลาดและการแลกเปลี่ยนออนไลน์](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) ในฐานะ **นักพัฒนาแอปพลิเคชัน** เราจะพบว่าการผสานข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูลและระบบอัตโนมัติที่ขับเคลื่อนด้วยอัลกอริทึมเข้ากับประสบการณ์ผู้ใช้ในชีวิตประจำวันนั้นง่ายและถูกลง แต่เมื่อ AI กลายเป็นสิ่งที่แพร่หลาย เราก็ต้องเข้าใจถึงอันตรายที่อาจเกิดขึ้นจาก [การใช้อัลกอริทึมในทางที่ผิด](https://www.youtube.com/watch?v=TQHs8SA1qpk) ในระดับใหญ่ด้วย
|
|
|
|
แนวโน้มยังชี้ให้เห็นว่าเราจะสร้างและบริโภคข้อมูลมากกว่า [180 เซตตะไบต์](https://www.statista.com/statistics/871513/worldwide-data-created/) ภายในปี 2025 ในฐานะ **นักวิทยาศาสตร์ข้อมูล** สิ่งนี้ทำให้เรามีโอกาสเข้าถึงข้อมูลส่วนบุคคลในระดับที่ไม่เคยมีมาก่อน ซึ่งหมายความว่าเราสามารถสร้างโปรไฟล์พฤติกรรมของผู้ใช้และมีอิทธิพลต่อการตัดสินใจในลักษณะที่สร้าง [ภาพลวงตาของการเลือกอย่างเสรี](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ในขณะเดียวกันก็อาจผลักดันผู้ใช้ไปสู่ผลลัพธ์ที่เราต้องการ นอกจากนี้ยังทำให้เกิดคำถามที่กว้างขึ้นเกี่ยวกับความเป็นส่วนตัวของข้อมูลและการคุ้มครองผู้ใช้
|
|
|
|
จริยธรรมข้อมูลในปัจจุบันเป็น _รั้วป้องกันที่จำเป็น_ สำหรับวิทยาศาสตร์ข้อมูลและวิศวกรรม โดยช่วยลดอันตรายที่อาจเกิดขึ้นและผลกระทบที่ไม่ได้ตั้งใจจากการกระทำที่ขับเคลื่อนด้วยข้อมูลของเรา [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ระบุแนวโน้มที่เกี่ยวข้องในด้านจริยธรรมดิจิทัล AI ที่รับผิดชอบ และการกำกับดูแล AI ว่าเป็นตัวขับเคลื่อนสำคัญสำหรับแนวโน้มใหญ่ที่เกี่ยวกับ _การทำให้เป็นประชาธิปไตย_ และ _การทำให้เป็นอุตสาหกรรม_ ของ AI
|
|
|
|

|
|
|
|
ในบทเรียนนี้ เราจะสำรวจพื้นที่ที่น่าสนใจของจริยธรรมข้อมูล ตั้งแต่แนวคิดหลักและความท้าทาย ไปจนถึงกรณีศึกษาและแนวคิด AI ประยุกต์ เช่น การกำกับดูแล ที่ช่วยสร้างวัฒนธรรมจริยธรรมในทีมและองค์กรที่ทำงานกับข้อมูลและ AI
|
|
|
|
## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
|
|
|
|
## คำจำกัดความพื้นฐาน
|
|
|
|
เริ่มต้นด้วยการทำความเข้าใจคำศัพท์พื้นฐานกันก่อน
|
|
|
|
คำว่า "จริยธรรม" มาจาก [คำภาษากรีก "ethikos"](https://en.wikipedia.org/wiki/Ethics) (และรากศัพท์ "ethos") ซึ่งหมายถึง _ลักษณะนิสัยหรือธรรมชาติทางศีลธรรม_
|
|
|
|
**จริยธรรม** เกี่ยวกับค่านิยมร่วมกันและหลักการทางศีลธรรมที่กำหนดพฤติกรรมของเราในสังคม จริยธรรมไม่ได้ขึ้นอยู่กับกฎหมาย แต่ขึ้นอยู่กับบรรทัดฐานที่ยอมรับกันอย่างกว้างขวางว่าอะไรคือ "ถูกหรือผิด" อย่างไรก็ตาม การพิจารณาด้านจริยธรรมสามารถมีอิทธิพลต่อการกำกับดูแลขององค์กรและกฎระเบียบของรัฐบาลที่สร้างแรงจูงใจให้ปฏิบัติตามมากขึ้น
|
|
|
|
**จริยธรรมข้อมูล** เป็น [สาขาใหม่ของจริยธรรม](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) ที่ "ศึกษาและประเมินปัญหาทางศีลธรรมที่เกี่ยวข้องกับ _ข้อมูล อัลกอริทึม และการปฏิบัติที่เกี่ยวข้อง_" ในที่นี้ **"ข้อมูล"** มุ่งเน้นไปที่การกระทำที่เกี่ยวข้องกับการสร้าง การบันทึก การดูแล การประมวลผล การเผยแพร่ การแบ่งปัน และการใช้งาน **"อัลกอริทึม"** มุ่งเน้นไปที่ AI ตัวแทน การเรียนรู้ของเครื่อง และหุ่นยนต์ และ **"การปฏิบัติ"** มุ่งเน้นไปที่หัวข้อต่างๆ เช่น นวัตกรรมที่รับผิดชอบ การเขียนโปรแกรม การแฮ็ก และจรรยาบรรณ
|
|
|
|
**จริยธรรมประยุกต์** คือ [การประยุกต์ใช้ข้อพิจารณาทางศีลธรรมในทางปฏิบัติ](https://en.wikipedia.org/wiki/Applied_ethics) เป็นกระบวนการตรวจสอบปัญหาด้านจริยธรรมในบริบทของ _การกระทำ ผลิตภัณฑ์ และกระบวนการในโลกแห่งความเป็นจริง_ และดำเนินการแก้ไขเพื่อให้สิ่งเหล่านี้ยังคงสอดคล้องกับค่านิยมทางจริยธรรมที่กำหนดไว้
|
|
|
|
**วัฒนธรรมจริยธรรม** เกี่ยวกับ [_การทำให้จริยธรรมประยุกต์เป็นรูปธรรม_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) เพื่อให้แน่ใจว่าหลักการและการปฏิบัติด้านจริยธรรมของเราได้รับการนำไปใช้อย่างสม่ำเสมอและขยายขอบเขตได้ทั่วทั้งองค์กร วัฒนธรรมจริยธรรมที่ประสบความสำเร็จจะกำหนดหลักการจริยธรรมทั่วทั้งองค์กร ให้แรงจูงใจที่มีความหมายสำหรับการปฏิบัติตาม และเสริมสร้างบรรทัดฐานด้านจริยธรรมโดยการสนับสนุนและขยายพฤติกรรมที่พึงประสงค์ในทุกระดับขององค์กร
|
|
|
|
## แนวคิดด้านจริยธรรม
|
|
|
|
ในส่วนนี้ เราจะพูดถึงแนวคิดต่างๆ เช่น **ค่านิยมร่วมกัน** (หลักการ) และ **ความท้าทายด้านจริยธรรม** (ปัญหา) สำหรับจริยธรรมข้อมูล - และสำรวจ **กรณีศึกษา** ที่ช่วยให้คุณเข้าใจแนวคิดเหล่านี้ในบริบทของโลกแห่งความเป็นจริง
|
|
|
|
### 1. หลักการด้านจริยธรรม
|
|
|
|
กลยุทธ์จริยธรรมข้อมูลทุกกลยุทธ์เริ่มต้นด้วยการกำหนด _หลักการด้านจริยธรรม_ - "ค่านิยมร่วมกัน" ที่อธิบายพฤติกรรมที่ยอมรับได้ และชี้นำการกระทำที่สอดคล้องกันในโครงการข้อมูลและ AI ของเรา คุณสามารถกำหนดสิ่งเหล่านี้ในระดับบุคคลหรือทีม อย่างไรก็ตาม องค์กรขนาดใหญ่มักจะกำหนดสิ่งเหล่านี้ในแถลงการณ์พันธกิจหรือกรอบงาน _AI ที่มีจริยธรรม_ ซึ่งกำหนดในระดับองค์กรและบังคับใช้อย่างสม่ำเสมอในทุกทีม
|
|
|
|
**ตัวอย่าง:** แถลงการณ์พันธกิจ [AI ที่รับผิดชอบ](https://www.microsoft.com/en-us/ai/responsible-ai) ของ Microsoft ระบุว่า: _"เรามุ่งมั่นที่จะพัฒนา AI โดยยึดหลักจริยธรรมที่ให้ความสำคัญกับผู้คนเป็นอันดับแรก"_ - โดยระบุหลักการจริยธรรม 6 ข้อในกรอบงานด้านล่าง:
|
|
|
|

|
|
|
|
มาสำรวจหลักการเหล่านี้กันสั้นๆ _ความโปร่งใส_ และ _ความรับผิดชอบ_ เป็นค่านิยมพื้นฐานที่หลักการอื่นๆ สร้างขึ้น - ดังนั้นเรามาเริ่มต้นที่นี่:
|
|
|
|
* [**ความรับผิดชอบ**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้ผู้ปฏิบัติงาน _รับผิดชอบ_ ต่อการดำเนินงานด้านข้อมูลและ AI ของพวกเขา และการปฏิบัติตามหลักการจริยธรรมเหล่านี้
|
|
* [**ความโปร่งใส**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้มั่นใจว่าการกระทำด้านข้อมูลและ AI นั้น _เข้าใจได้_ (ตีความได้) สำหรับผู้ใช้ โดยอธิบายว่าอะไรและทำไมเบื้องหลังการตัดสินใจ
|
|
* [**ความยุติธรรม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - มุ่งเน้นไปที่การทำให้มั่นใจว่า AI ปฏิบัติต่อ _ทุกคน_ อย่างยุติธรรม โดยจัดการกับอคติทางสังคม-เทคนิคที่เป็นระบบหรือโดยนัยในข้อมูลและระบบ
|
|
* [**ความน่าเชื่อถือและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ทำให้มั่นใจว่า AI มีพฤติกรรม _สอดคล้อง_ กับค่านิยมที่กำหนดไว้ ลดอันตรายที่อาจเกิดขึ้นหรือผลกระทบที่ไม่ได้ตั้งใจ
|
|
* [**ความเป็นส่วนตัวและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการทำความเข้าใจแหล่งที่มาของข้อมูล และให้ _ความเป็นส่วนตัวของข้อมูลและการป้องกันที่เกี่ยวข้อง_ แก่ผู้ใช้
|
|
* [**การมีส่วนร่วม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการออกแบบโซลูชัน AI ด้วยความตั้งใจ ปรับให้เหมาะสมเพื่อตอบสนอง _ความต้องการและความสามารถของมนุษย์ที่หลากหลาย_
|
|
|
|
> 🚨 ลองคิดดูว่าแถลงการณ์พันธกิจจริยธรรมข้อมูลของคุณจะเป็นอย่างไร สำรวจกรอบงาน AI ที่มีจริยธรรมจากองค์กรอื่นๆ - นี่คือตัวอย่างจาก [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), และ [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) ค่านิยมร่วมกันที่พวกเขามีเหมือนกันคืออะไร? หลักการเหล่านี้เกี่ยวข้องกับผลิตภัณฑ์ AI หรืออุตสาหกรรมที่พวกเขาดำเนินการอย่างไร?
|
|
|
|
### 2. ความท้าทายด้านจริยธรรม
|
|
|
|
เมื่อเรากำหนดหลักการจริยธรรมแล้ว ขั้นตอนต่อไปคือการประเมินการกระทำด้านข้อมูลและ AI ของเราเพื่อดูว่าพวกมันสอดคล้องกับค่านิยมร่วมกันเหล่านั้นหรือไม่ ลองคิดถึงการกระทำของคุณในสองหมวดหมู่: _การเก็บรวบรวมข้อมูล_ และ _การออกแบบอัลกอริทึม_
|
|
|
|
ในการเก็บรวบรวมข้อมูล การกระทำมักจะเกี่ยวข้องกับ **ข้อมูลส่วนบุคคล** หรือข้อมูลที่สามารถระบุตัวบุคคลได้ (PII) สำหรับบุคคลที่สามารถระบุตัวตนได้ ซึ่งรวมถึง [รายการข้อมูลที่ไม่ใช่ส่วนบุคคลที่หลากหลาย](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) ที่ _รวมกัน_ สามารถระบุตัวบุคคลได้ ความท้าทายด้านจริยธรรมอาจเกี่ยวข้องกับ _ความเป็นส่วนตัวของข้อมูล_ _การเป็นเจ้าของข้อมูล_ และหัวข้อที่เกี่ยวข้อง เช่น _การยินยอมที่ได้รับการแจ้ง_ และ _สิทธิในทรัพย์สินทางปัญญา_ ของผู้ใช้
|
|
|
|
ในการออกแบบอัลกอริทึม การกระทำจะเกี่ยวข้องกับการเก็บรวบรวมและดูแล **ชุดข้อมูล** จากนั้นใช้ชุดข้อมูลเหล่านี้เพื่อฝึกอบรมและปรับใช้ **โมเดลข้อมูล** ที่คาดการณ์ผลลัพธ์หรือทำการตัดสินใจอัตโนมัติในบริบทของโลกแห่งความเป็นจริง ความท้าทายด้านจริยธรรมอาจเกิดจาก _อคติในชุดข้อมูล_ _ปัญหาคุณภาพของข้อมูล_ _ความไม่ยุติธรรม_ และ _การบิดเบือน_ ในอัลกอริทึม - รวมถึงปัญหาบางอย่างที่เป็นระบบ
|
|
|
|
ในทั้งสองกรณี ความท้าทายด้านจริยธรรมเน้นพื้นที่ที่การกระทำของเราอาจขัดแย้งกับค่านิยมร่วมกันของเรา เพื่อที่จะตรวจจับ บรรเทา ลด หรือกำจัดข้อกังวลเหล่านี้ - เราจำเป็นต้องตั้งคำถามทางศีลธรรม "ใช่/ไม่ใช่" ที่เกี่ยวข้องกับการกระทำของเรา จากนั้นดำเนินการแก้ไขตามความจำเป็น มาดูความท้าทายด้านจริยธรรมบางประการและคำถามทางศีลธรรมที่พวกมันก่อให้เกิด:
|
|
|
|
#### 2.1 การเป็นเจ้าของข้อมูล
|
|
|
|
การเก็บรวบรวมข้อมูลมักเกี่ยวข้องกับข้อมูลส่วนบุคคลที่สามารถระบุตัวตนของเจ้าของข้อมูลได้ [การเป็นเจ้าของข้อมูล](https://permission.io/blog/data-ownership) หมายถึง _การควบคุม_ และ [_สิทธิของผู้ใช้_](https://permission.io/blog/data-ownership) ที่เกี่ยวข้องกับการสร้าง การประมวลผล และการเผยแพร่ข้อมูล
|
|
|
|
คำถามทางศีลธรรมที่เราต้องถามคือ:
|
|
* ใครเป็นเจ้าของข้อมูล? (ผู้ใช้หรือองค์กร)
|
|
* เจ้าของข้อมูลมีสิทธิอะไรบ้าง? (เช่น การเข้าถึง การลบ การพกพา)
|
|
* องค์กรมีสิทธิอะไรบ้าง? (เช่น การแก้ไขรีวิวที่เป็นอันตราย)
|
|
|
|
#### 2.2 การยินยอมที่ได้รับการแจ้ง
|
|
|
|
[การยินยอมที่ได้รับการแจ้ง](https://legaldictionary.net/informed-consent/) หมายถึงการกระทำที่ผู้ใช้ยอมรับการกระทำ (เช่น การเก็บข้อมูล) โดยมี _ความเข้าใจอย่างเต็มที่_ เกี่ยวกับข้อเท็จจริงที่เกี่ยวข้อง รวมถึงวัตถุประสงค์ ความเสี่ยงที่อาจเกิดขึ้น และทางเลือกอื่นๆ
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ผู้ใช้ (เจ้าของข้อมูล) ให้อนุญาตสำหรับการเก็บและการใช้ข้อมูลหรือไม่?
|
|
* ผู้ใช้เข้าใจวัตถุประสงค์ที่เก็บข้อมูลหรือไม่?
|
|
* ผู้ใช้เข้าใจความเสี่ยงที่อาจเกิดขึ้นจากการมีส่วนร่วมของพวกเขาหรือไม่?
|
|
|
|
#### 2.3 ทรัพย์สินทางปัญญา
|
|
|
|
[ทรัพย์สินทางปัญญา](https://en.wikipedia.org/wiki/Intellectual_property) หมายถึงการสร้างสรรค์ที่จับต้องไม่ได้ซึ่งเกิดจากความคิดริเริ่มของมนุษย์ ซึ่งอาจ _มีมูลค่าทางเศรษฐกิจ_ ต่อบุคคลหรือธุรกิจ
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ข้อมูลที่เก็บรวบรวมมีมูลค่าทางเศรษฐกิจต่อผู้ใช้หรือธุรกิจหรือไม่?
|
|
* **ผู้ใช้** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
|
|
* **องค์กร** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่?
|
|
* หากสิทธิ์เหล่านี้มีอยู่ เราปกป้องสิทธิ์เหล่านี้อย่างไร?
|
|
|
|
#### 2.4 ความเป็นส่วนตัวของข้อมูล
|
|
|
|
[ความเป็นส่วนตัวของข้อมูล](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) หรือความเป็นส่วนตัวของข้อมูลหมายถึงการรักษาความเป็นส่วนตัวของผู้ใช้และการปกป้องตัวตนของผู้ใช้เกี่ยวกับข้อมูลที่สามารถระบุตัวบุคคลได้
|
|
|
|
คำถามที่ควรสำรวจในที่นี้คือ:
|
|
* ข้อมูลส่วนบุคคลของผู้ใช้ปลอดภัยจากการแฮ็กและการรั่วไหลหรือไม่?
|
|
* ข้อมูลของผู้ใช้สามารถเข้าถึงได้เฉพาะผู้ใช้ที่ได้รับอนุญาตและบริบทที่เหมาะสมหรือไม่?
|
|
* การไม่ระบุตัวตนของผู้ใช้ได้รับการรักษาไว้เมื่อมีการแบ่งปัน
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) คือการตรวจสอบว่า การออกแบบอัลกอริทึมมีการเลือกปฏิบัติต่อกลุ่มย่อยของข้อมูลอย่างเป็นระบบหรือไม่ ซึ่งอาจนำไปสู่ [ผลกระทบที่อาจเกิดขึ้น](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) ในเรื่องของ _การจัดสรรทรัพยากร_ (ที่ทรัพยากรถูกปฏิเสธหรือถูกระงับจากกลุ่มนั้น) และ _คุณภาพของบริการ_ (ที่ AI มีความแม่นยำไม่เท่ากันสำหรับกลุ่มย่อยต่าง ๆ)
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* เราได้ประเมินความแม่นยำของโมเดลสำหรับกลุ่มย่อยและเงื่อนไขที่หลากหลายหรือไม่?
|
|
* เราได้ตรวจสอบระบบเพื่อหาผลกระทบที่อาจเกิดขึ้น (เช่น การเหมารวม) หรือไม่?
|
|
* เราสามารถปรับปรุงข้อมูลหรือฝึกโมเดลใหม่เพื่อบรรเทาผลกระทบที่พบได้หรือไม่?
|
|
|
|
สำรวจแหล่งข้อมูล เช่น [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) เพื่อเรียนรู้เพิ่มเติม
|
|
|
|
#### 2.9 การบิดเบือนข้อมูล
|
|
|
|
[Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) คือการตั้งคำถามว่า เรากำลังสื่อสารข้อมูลเชิงลึกจากข้อมูลที่รายงานอย่างซื่อสัตย์ในลักษณะที่หลอกลวงเพื่อสนับสนุนเรื่องราวที่ต้องการหรือไม่
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* เรากำลังรายงานข้อมูลที่ไม่ครบถ้วนหรือไม่ถูกต้องหรือไม่?
|
|
* เรากำลังแสดงข้อมูลในลักษณะที่นำไปสู่ข้อสรุปที่ทำให้เข้าใจผิดหรือไม่?
|
|
* เรากำลังใช้เทคนิคทางสถิติที่เลือกสรรเพื่อปรับเปลี่ยนผลลัพธ์หรือไม่?
|
|
* มีคำอธิบายทางเลือกอื่นที่อาจนำไปสู่ข้อสรุปที่แตกต่างหรือไม่?
|
|
|
|
#### 2.10 การเลือกอย่างอิสระ
|
|
[Illusion of Free Choice](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) เกิดขึ้นเมื่อ "สถาปัตยกรรมการเลือก" ของระบบใช้อัลกอริทึมการตัดสินใจเพื่อชักจูงให้ผู้คนเลือกผลลัพธ์ที่ต้องการ ในขณะที่ดูเหมือนว่าพวกเขามีตัวเลือกและการควบคุม [รูปแบบมืด](https://www.darkpatterns.org/) เหล่านี้สามารถก่อให้เกิดผลกระทบทางสังคมและเศรษฐกิจต่อผู้ใช้ เนื่องจากการตัดสินใจของผู้ใช้ส่งผลต่อโปรไฟล์พฤติกรรม การกระทำเหล่านี้อาจผลักดันการเลือกในอนาคตที่ขยายผลกระทบของความเสียหายเหล่านี้
|
|
|
|
คำถามที่ควรพิจารณา:
|
|
* ผู้ใช้เข้าใจผลกระทบของการเลือกนั้นหรือไม่?
|
|
* ผู้ใช้ทราบถึงตัวเลือก (ทางเลือก) และข้อดีข้อเสียของแต่ละตัวเลือกหรือไม่?
|
|
* ผู้ใช้สามารถย้อนกลับการเลือกที่ถูกชักจูงหรืออัตโนมัติในภายหลังได้หรือไม่?
|
|
|
|
### 3. กรณีศึกษา
|
|
|
|
เพื่อให้เข้าใจความท้าทายด้านจริยธรรมในบริบทของโลกจริง การศึกษากรณีที่แสดงให้เห็นถึงผลกระทบและผลลัพธ์ที่อาจเกิดขึ้นต่อบุคคลและสังคมเมื่อการละเมิดจริยธรรมถูกมองข้ามจะช่วยได้
|
|
|
|
ตัวอย่างบางส่วน:
|
|
|
|
| ความท้าทายด้านจริยธรรม | กรณีศึกษา |
|
|
|--- |--- |
|
|
| **การยินยอมโดยได้รับข้อมูล** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - ผู้ชายชาวแอฟริกันอเมริกันที่เข้าร่วมการศึกษานี้ได้รับสัญญาว่าจะได้รับการดูแลทางการแพทย์ฟรี _แต่ถูกหลอกลวง_ โดยนักวิจัยที่ไม่แจ้งให้ทราบถึงการวินิจฉัยหรือการรักษาที่มีอยู่ ผู้เข้าร่วมหลายคนเสียชีวิต และคู่สมรสหรือบุตรได้รับผลกระทบ การศึกษานี้ดำเนินไปเป็นเวลา 40 ปี |
|
|
| **ความเป็นส่วนตัวของข้อมูล** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ให้ข้อมูลการจัดอันดับภาพยนตร์ที่ไม่ระบุตัวตนจำนวน _10 ล้านรายการจากลูกค้า 50,000 คน_ เพื่อช่วยปรับปรุงอัลกอริทึมการแนะนำ อย่างไรก็ตาม นักวิจัยสามารถเชื่อมโยงข้อมูลที่ไม่ระบุตัวตนกับข้อมูลที่สามารถระบุตัวตนได้ใน _ชุดข้อมูลภายนอก_ (เช่น ความคิดเห็นใน IMDb) ซึ่งทำให้สามารถ "ระบุตัวตน" ผู้ใช้ Netflix บางคนได้ |
|
|
| **อคติในการเก็บข้อมูล** | 2013 - เมืองบอสตัน [พัฒนา Street Bump](https://www.boston.gov/transportation/street-bump) แอปที่ให้พลเมืองรายงานหลุมบ่อ เพื่อให้เมืองมีข้อมูลถนนที่ดีขึ้นในการแก้ไขปัญหา อย่างไรก็ตาม [ผู้คนในกลุ่มรายได้ต่ำมีการเข้าถึงรถยนต์และโทรศัพท์น้อยกว่า](https://hbr.org/2013/04/the-hidden-biases-in-big-data) ทำให้ปัญหาถนนของพวกเขาไม่ปรากฏในแอปนี้ นักพัฒนาร่วมมือกับนักวิชาการเพื่อแก้ไขปัญหา _การเข้าถึงที่เท่าเทียมและช่องว่างทางดิจิทัล_ เพื่อความเป็นธรรม |
|
|
| **ความเป็นธรรมของอัลกอริทึม** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) ประเมินความแม่นยำของผลิตภัณฑ์ AI ที่จำแนกเพศ เผยให้เห็นช่องว่างในความแม่นยำสำหรับผู้หญิงและคนผิวสี [Apple Card ปี 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ดูเหมือนจะให้เครดิตน้อยกว่ากับผู้หญิงเมื่อเทียบกับผู้ชาย ทั้งสองกรณีแสดงให้เห็นถึงปัญหาอคติในอัลกอริทึมที่นำไปสู่ผลกระทบทางเศรษฐกิจและสังคม |
|
|
| **การบิดเบือนข้อมูล** | 2020 - [กรมสาธารณสุขจอร์เจียเผยแพร่แผนภูมิ COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) ที่ดูเหมือนจะทำให้ประชาชนเข้าใจผิดเกี่ยวกับแนวโน้มของจำนวนผู้ป่วยที่ได้รับการยืนยัน โดยการจัดลำดับแกน x ที่ไม่เป็นไปตามลำดับเวลา ซึ่งแสดงให้เห็นถึงการบิดเบือนผ่านเทคนิคการแสดงภาพ |
|
|
| **ภาพลวงตาของการเลือกอย่างอิสระ** | 2020 - แอปการเรียนรู้ [ABCmouse จ่ายเงิน 10 ล้านดอลลาร์เพื่อยุติข้อร้องเรียนของ FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) ที่ผู้ปกครองถูกบังคับให้จ่ายเงินสำหรับการสมัครสมาชิกที่ไม่สามารถยกเลิกได้ ซึ่งแสดงให้เห็นถึงรูปแบบมืดในสถาปัตยกรรมการเลือก ที่ผู้ใช้ถูกชักจูงไปสู่การเลือกที่อาจเป็นอันตราย |
|
|
| **ความเป็นส่วนตัวของข้อมูลและสิทธิของผู้ใช้** | 2021 - [การละเมิดข้อมูล Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) เปิดเผยข้อมูลจากผู้ใช้ 530 ล้านคน ส่งผลให้มีการยุติคดีด้วยเงิน 5 พันล้านดอลลาร์กับ FTC อย่างไรก็ตาม Facebook ปฏิเสธที่จะแจ้งเตือนผู้ใช้เกี่ยวกับการละเมิด ซึ่งเป็นการละเมิดสิทธิของผู้ใช้เกี่ยวกับความโปร่งใสและการเข้าถึงข้อมูล |
|
|
|
|
ต้องการสำรวจกรณีศึกษาเพิ่มเติม? ลองดูแหล่งข้อมูลเหล่านี้:
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ภาวะที่กลืนไม่เข้าคายไม่ออกด้านจริยธรรมในอุตสาหกรรมต่าง ๆ
|
|
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - กรณีศึกษาสำคัญที่ถูกสำรวจ
|
|
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - รายการตรวจสอบ Deon พร้อมตัวอย่าง
|
|
|
|
> 🚨 ลองคิดถึงกรณีศึกษาที่คุณเคยเห็น - คุณเคยประสบหรือได้รับผลกระทบจากความท้าทายด้านจริยธรรมที่คล้ายกันในชีวิตของคุณหรือไม่? คุณสามารถคิดถึงกรณีศึกษาอื่นอย่างน้อยหนึ่งกรณีที่แสดงให้เห็นถึงหนึ่งในความท้าทายด้านจริยธรรมที่เราได้พูดถึงในส่วนนี้หรือไม่?
|
|
|
|
## จริยธรรมประยุกต์
|
|
|
|
เราได้พูดถึงแนวคิดด้านจริยธรรม ความท้าทาย และกรณีศึกษาในบริบทของโลกจริง แต่เราจะเริ่มต้น _การนำ_ หลักการและแนวปฏิบัติด้านจริยธรรมไปใช้ในโครงการของเราได้อย่างไร? และเราจะ _ทำให้เป็นระบบ_ แนวปฏิบัติเหล่านี้เพื่อการกำกับดูแลที่ดีขึ้นได้อย่างไร? มาสำรวจวิธีแก้ปัญหาในโลกจริงกัน:
|
|
|
|
### 1. รหัสวิชาชีพ
|
|
|
|
รหัสวิชาชีพเป็นตัวเลือกหนึ่งสำหรับองค์กรในการ "จูงใจ" สมาชิกให้สนับสนุนหลักการด้านจริยธรรมและพันธกิจขององค์กร รหัสเหล่านี้เป็น _แนวทางทางศีลธรรม_ สำหรับพฤติกรรมวิชาชีพ ช่วยให้พนักงานหรือสมาชิกตัดสินใจที่สอดคล้องกับหลักการขององค์กร รหัสเหล่านี้จะมีประสิทธิภาพเท่ากับการปฏิบัติตามโดยสมัครใจของสมาชิก อย่างไรก็ตาม หลายองค์กรมีรางวัลและบทลงโทษเพิ่มเติมเพื่อกระตุ้นการปฏิบัติตามของสมาชิก
|
|
|
|
ตัวอย่าง:
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
|
|
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (สร้างขึ้นในปี 2013)
|
|
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (ตั้งแต่ปี 1993)
|
|
|
|
> 🚨 คุณเป็นสมาชิกขององค์กรวิศวกรรมหรือวิทยาศาสตร์ข้อมูลวิชาชีพหรือไม่? สำรวจเว็บไซต์ของพวกเขาเพื่อดูว่าพวกเขากำหนดรหัสจริยธรรมวิชาชีพหรือไม่ สิ่งนี้บอกอะไรเกี่ยวกับหลักการด้านจริยธรรมของพวกเขา? พวกเขา "จูงใจ" สมาชิกให้ปฏิบัติตามรหัสอย่างไร?
|
|
|
|
### 2. รายการตรวจสอบด้านจริยธรรม
|
|
|
|
ในขณะที่รหัสวิชาชีพกำหนด _พฤติกรรมด้านจริยธรรม_ ที่จำเป็นจากผู้ปฏิบัติงาน แต่ [มีข้อจำกัดที่ทราบกันดี](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ในการบังคับใช้ โดยเฉพาะในโครงการขนาดใหญ่ ผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลหลายคน [สนับสนุนการใช้รายการตรวจสอบ](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ซึ่งสามารถ **เชื่อมโยงหลักการกับแนวปฏิบัติ** ในลักษณะที่กำหนดและนำไปปฏิบัติได้จริงมากขึ้น
|
|
|
|
รายการตรวจสอบเปลี่ยนคำถามให้เป็นงาน "ใช่/ไม่ใช่" ที่สามารถนำไปปฏิบัติได้ ทำให้สามารถติดตามได้เป็นส่วนหนึ่งของกระบวนการปล่อยผลิตภัณฑ์มาตรฐาน
|
|
|
|
ตัวอย่าง:
|
|
* [Deon](https://deon.drivendata.org/) - รายการตรวจสอบจริยธรรมข้อมูลทั่วไปที่สร้างขึ้นจาก [คำแนะนำในอุตสาหกรรม](https://deon.drivendata.org/#checklist-citations) พร้อมเครื่องมือบรรทัดคำสั่งสำหรับการผสานรวมที่ง่ายดาย
|
|
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - ให้คำแนะนำทั่วไปสำหรับแนวปฏิบัติในการจัดการข้อมูลจากมุมมองทางกฎหมายและสังคม
|
|
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - สร้างโดยผู้ปฏิบัติงานด้าน AI เพื่อสนับสนุนการนำการตรวจสอบความเป็นธรรมไปใช้ในวงจรการพัฒนา AI
|
|
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - กรอบงานที่เปิดกว้างมากขึ้น โครงสร้างสำหรับการสำรวจเบื้องต้นเกี่ยวกับปัญหาด้านจริยธรรมในด้านการออกแบบ การดำเนินการ และบริบทขององค์กร
|
|
|
|
### 3. กฎระเบียบด้านจริยธรรม
|
|
|
|
จริยธรรมเกี่ยวกับการกำหนดค่านิยมร่วมกันและการทำสิ่งที่ถูกต้อง _โดยสมัครใจ_ **การปฏิบัติตาม** เกี่ยวกับ _การปฏิบัติตามกฎหมาย_ หากมีการกำหนดไว้ **การกำกับดูแล** ครอบคลุมวิธีการทั้งหมดที่องค์กรดำเนินการเพื่อบังคับใช้หลักการด้านจริยธรรมและปฏิบัติตามกฎหมายที่กำหนดไว้
|
|
|
|
ปัจจุบัน การกำกับดูแลมีสองรูปแบบในองค์กร ประการแรกคือการกำหนดหลักการ **AI ด้านจริยธรรม** และสร้างแนวปฏิบัติเพื่อทำให้การนำไปใช้เป็นระบบในทุกโครงการที่เกี่ยวข้องกับ AI ในองค์กร ประการที่สองคือการปฏิบัติตาม **กฎระเบียบการคุ้มครองข้อมูล** ที่รัฐบาลกำหนดสำหรับภูมิภาคที่องค์กรดำเนินการอยู่
|
|
|
|
ตัวอย่างกฎระเบียบการคุ้มครองข้อมูลและความเป็นส่วนตัว:
|
|
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - ควบคุมการรวบรวม การใช้ และการเปิดเผยข้อมูลส่วนบุคคลของ _รัฐบาลกลาง_
|
|
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ปกป้องข้อมูลสุขภาพส่วนบุคคล
|
|
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ปกป้องความเป็นส่วนตัวของข้อมูลเด็กอายุต่ำกว่า 13 ปี
|
|
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ให้สิทธิผู้ใช้ การคุ้มครองข้อมูล และความเป็นส่วนตัว
|
|
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ให้สิทธิผู้บริโภคมากขึ้นเกี่ยวกับข้อมูล (ส่วนบุคคล) ของพวกเขา
|
|
* `2021`, [กฎหมายคุ้มครองข้อมูลส่วนบุคคลของจีน](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) เพิ่งผ่าน ซึ่งเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวออนไลน์ที่เข้มงวดที่สุดในโลก
|
|
|
|
> 🚨 สหภาพยุโรปกำหนด GDPR (General Data Protection Regulation) ซึ่งยังคงเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวของข้อมูลที่มีอิทธิพลมากที่สุดในปัจจุบัน คุณทราบหรือไม่ว่ามันยังกำหนด [8 สิทธิของผู้ใช้](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) เพื่อปกป้องความเป็นส่วนตัวทางดิจิทัลและข้อมูลส่วนบุคคลของพลเมือง? เรียนรู้เกี่ยวกับสิ่งเหล่านี้และเหตุผลที่สำคัญ
|
|
|
|
### 4. วัฒนธรรมด้านจริยธรรม
|
|
|
|
โปรดทราบว่ายังคงมีช่องว่างที่จับต้องไม่ได้ระหว่าง _การปฏิบัติตาม_ (การทำให้เพียงพอเพื่อให้เป็นไปตาม "ตัวอักษรของกฎหมาย") และการแก้ไข [ปัญหาระบบ](https://www.coursera.org/learn/data-science-ethics/home/week/4) (เช่น การแข็งตัวของระบบ ความไม่สมดุลของข้อมูล และความไม่เป็นธรรมในการกระจาย) ที่สามารถเร่งการใช้งาน AI ในทางที่ผิด
|
|
|
|
สิ่งหลังนี้
|
|
* [หลักการของ AI ที่มีความรับผิดชอบ](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - เส้นทางการเรียนรู้ฟรีจาก Microsoft Learn
|
|
* [จริยธรรมและวิทยาศาสตร์ข้อมูล](https://resources.oreilly.com/examples/0636920203964) - หนังสืออิเล็กทรอนิกส์จาก O'Reilly (M. Loukides, H. Mason และคณะ)
|
|
* [จริยธรรมในวิทยาศาสตร์ข้อมูล](https://www.coursera.org/learn/data-science-ethics#syllabus) - คอร์สออนไลน์จากมหาวิทยาลัยมิชิแกน
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - กรณีศึกษาจากมหาวิทยาลัยเท็กซัส
|
|
|
|
# งานที่ได้รับมอบหมาย
|
|
|
|
[เขียนกรณีศึกษาด้านจริยธรรมข้อมูล](assignment.md)
|
|
|
|
---
|
|
|
|
**ข้อจำกัดความรับผิดชอบ**:
|
|
เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้ |