# บทนำสู่จริยธรรมข้อมูล |![ สเก็ตช์โน้ตโดย [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)| |:---:| | จริยธรรมข้อมูล - _สเก็ตช์โน้ตโดย [@nitya](https://twitter.com/nitya)_ | --- เราทุกคนเป็นพลเมืองข้อมูลที่อาศัยอยู่ในโลกที่เต็มไปด้วยข้อมูล แนวโน้มตลาดบอกเราว่าภายในปี 2022 องค์กรขนาดใหญ่ 1 ใน 3 จะซื้อและขายข้อมูลของพวกเขาผ่าน [ตลาดและการแลกเปลี่ยนออนไลน์](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) ในฐานะ **นักพัฒนาแอปพลิเคชัน** เราจะพบว่าการผสานข้อมูลเชิงลึกที่ขับเคลื่อนด้วยข้อมูลและระบบอัตโนมัติที่ขับเคลื่อนด้วยอัลกอริทึมเข้ากับประสบการณ์ผู้ใช้ในชีวิตประจำวันนั้นง่ายและถูกลง แต่เมื่อ AI กลายเป็นสิ่งที่แพร่หลาย เราก็ต้องเข้าใจถึงอันตรายที่อาจเกิดขึ้นจาก [การใช้อัลกอริทึมในทางที่ผิด](https://www.youtube.com/watch?v=TQHs8SA1qpk) ในระดับใหญ่ด้วย แนวโน้มยังชี้ให้เห็นว่าเราจะสร้างและบริโภคข้อมูลมากกว่า [180 เซตตะไบต์](https://www.statista.com/statistics/871513/worldwide-data-created/) ภายในปี 2025 ในฐานะ **นักวิทยาศาสตร์ข้อมูล** สิ่งนี้ทำให้เรามีโอกาสเข้าถึงข้อมูลส่วนบุคคลในระดับที่ไม่เคยมีมาก่อน ซึ่งหมายความว่าเราสามารถสร้างโปรไฟล์พฤติกรรมของผู้ใช้และมีอิทธิพลต่อการตัดสินใจในลักษณะที่สร้าง [ภาพลวงตาของการเลือกอย่างเสรี](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ในขณะเดียวกันก็อาจผลักดันผู้ใช้ไปสู่ผลลัพธ์ที่เราต้องการ นอกจากนี้ยังทำให้เกิดคำถามที่กว้างขึ้นเกี่ยวกับความเป็นส่วนตัวของข้อมูลและการคุ้มครองผู้ใช้ จริยธรรมข้อมูลในปัจจุบันเป็น _รั้วป้องกันที่จำเป็น_ สำหรับวิทยาศาสตร์ข้อมูลและวิศวกรรม โดยช่วยลดอันตรายที่อาจเกิดขึ้นและผลกระทบที่ไม่ได้ตั้งใจจากการกระทำที่ขับเคลื่อนด้วยข้อมูลของเรา [Gartner Hype Cycle for AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ระบุแนวโน้มที่เกี่ยวข้องในด้านจริยธรรมดิจิทัล AI ที่รับผิดชอบ และการกำกับดูแล AI ว่าเป็นตัวขับเคลื่อนสำคัญสำหรับแนวโน้มใหญ่ที่เกี่ยวกับ _การทำให้เป็นประชาธิปไตย_ และ _การทำให้เป็นอุตสาหกรรม_ ของ AI ![Gartner's Hype Cycle for AI - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==) ในบทเรียนนี้ เราจะสำรวจพื้นที่ที่น่าสนใจของจริยธรรมข้อมูล ตั้งแต่แนวคิดหลักและความท้าทาย ไปจนถึงกรณีศึกษาและแนวคิด AI ประยุกต์ เช่น การกำกับดูแล ที่ช่วยสร้างวัฒนธรรมจริยธรรมในทีมและองค์กรที่ทำงานกับข้อมูลและ AI ## [แบบทดสอบก่อนการบรรยาย](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯 ## คำจำกัดความพื้นฐาน เริ่มต้นด้วยการทำความเข้าใจคำศัพท์พื้นฐานกันก่อน คำว่า "จริยธรรม" มาจาก [คำภาษากรีก "ethikos"](https://en.wikipedia.org/wiki/Ethics) (และรากศัพท์ "ethos") ซึ่งหมายถึง _ลักษณะนิสัยหรือธรรมชาติทางศีลธรรม_ **จริยธรรม** เกี่ยวกับค่านิยมร่วมกันและหลักการทางศีลธรรมที่กำหนดพฤติกรรมของเราในสังคม จริยธรรมไม่ได้ขึ้นอยู่กับกฎหมาย แต่ขึ้นอยู่กับบรรทัดฐานที่ยอมรับกันอย่างกว้างขวางว่าอะไรคือ "ถูกหรือผิด" อย่างไรก็ตาม การพิจารณาด้านจริยธรรมสามารถมีอิทธิพลต่อการกำกับดูแลขององค์กรและกฎระเบียบของรัฐบาลที่สร้างแรงจูงใจให้ปฏิบัติตามมากขึ้น **จริยธรรมข้อมูล** เป็น [สาขาใหม่ของจริยธรรม](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) ที่ "ศึกษาและประเมินปัญหาทางศีลธรรมที่เกี่ยวข้องกับ _ข้อมูล อัลกอริทึม และการปฏิบัติที่เกี่ยวข้อง_" ในที่นี้ **"ข้อมูล"** มุ่งเน้นไปที่การกระทำที่เกี่ยวข้องกับการสร้าง การบันทึก การดูแล การประมวลผล การเผยแพร่ การแบ่งปัน และการใช้งาน **"อัลกอริทึม"** มุ่งเน้นไปที่ AI ตัวแทน การเรียนรู้ของเครื่อง และหุ่นยนต์ และ **"การปฏิบัติ"** มุ่งเน้นไปที่หัวข้อต่างๆ เช่น นวัตกรรมที่รับผิดชอบ การเขียนโปรแกรม การแฮ็ก และจรรยาบรรณ **จริยธรรมประยุกต์** คือ [การประยุกต์ใช้ข้อพิจารณาทางศีลธรรมในทางปฏิบัติ](https://en.wikipedia.org/wiki/Applied_ethics) เป็นกระบวนการตรวจสอบปัญหาด้านจริยธรรมในบริบทของ _การกระทำ ผลิตภัณฑ์ และกระบวนการในโลกแห่งความเป็นจริง_ และดำเนินการแก้ไขเพื่อให้สิ่งเหล่านี้ยังคงสอดคล้องกับค่านิยมทางจริยธรรมที่กำหนดไว้ **วัฒนธรรมจริยธรรม** เกี่ยวกับ [_การทำให้จริยธรรมประยุกต์เป็นรูปธรรม_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) เพื่อให้แน่ใจว่าหลักการและการปฏิบัติด้านจริยธรรมของเราได้รับการนำไปใช้อย่างสม่ำเสมอและขยายขอบเขตได้ทั่วทั้งองค์กร วัฒนธรรมจริยธรรมที่ประสบความสำเร็จจะกำหนดหลักการจริยธรรมทั่วทั้งองค์กร ให้แรงจูงใจที่มีความหมายสำหรับการปฏิบัติตาม และเสริมสร้างบรรทัดฐานด้านจริยธรรมโดยการสนับสนุนและขยายพฤติกรรมที่พึงประสงค์ในทุกระดับขององค์กร ## แนวคิดด้านจริยธรรม ในส่วนนี้ เราจะพูดถึงแนวคิดต่างๆ เช่น **ค่านิยมร่วมกัน** (หลักการ) และ **ความท้าทายด้านจริยธรรม** (ปัญหา) สำหรับจริยธรรมข้อมูล - และสำรวจ **กรณีศึกษา** ที่ช่วยให้คุณเข้าใจแนวคิดเหล่านี้ในบริบทของโลกแห่งความเป็นจริง ### 1. หลักการด้านจริยธรรม กลยุทธ์จริยธรรมข้อมูลทุกกลยุทธ์เริ่มต้นด้วยการกำหนด _หลักการด้านจริยธรรม_ - "ค่านิยมร่วมกัน" ที่อธิบายพฤติกรรมที่ยอมรับได้ และชี้นำการกระทำที่สอดคล้องกันในโครงการข้อมูลและ AI ของเรา คุณสามารถกำหนดสิ่งเหล่านี้ในระดับบุคคลหรือทีม อย่างไรก็ตาม องค์กรขนาดใหญ่มักจะกำหนดสิ่งเหล่านี้ในแถลงการณ์พันธกิจหรือกรอบงาน _AI ที่มีจริยธรรม_ ซึ่งกำหนดในระดับองค์กรและบังคับใช้อย่างสม่ำเสมอในทุกทีม **ตัวอย่าง:** แถลงการณ์พันธกิจ [AI ที่รับผิดชอบ](https://www.microsoft.com/en-us/ai/responsible-ai) ของ Microsoft ระบุว่า: _"เรามุ่งมั่นที่จะพัฒนา AI โดยยึดหลักจริยธรรมที่ให้ความสำคัญกับผู้คนเป็นอันดับแรก"_ - โดยระบุหลักการจริยธรรม 6 ข้อในกรอบงานด้านล่าง: ![AI ที่รับผิดชอบของ Microsoft](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png) มาสำรวจหลักการเหล่านี้กันสั้นๆ _ความโปร่งใส_ และ _ความรับผิดชอบ_ เป็นค่านิยมพื้นฐานที่หลักการอื่นๆ สร้างขึ้น - ดังนั้นเรามาเริ่มต้นที่นี่: * [**ความรับผิดชอบ**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้ผู้ปฏิบัติงาน _รับผิดชอบ_ ต่อการดำเนินงานด้านข้อมูลและ AI ของพวกเขา และการปฏิบัติตามหลักการจริยธรรมเหล่านี้ * [**ความโปร่งใส**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ทำให้มั่นใจว่าการกระทำด้านข้อมูลและ AI นั้น _เข้าใจได้_ (ตีความได้) สำหรับผู้ใช้ โดยอธิบายว่าอะไรและทำไมเบื้องหลังการตัดสินใจ * [**ความยุติธรรม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - มุ่งเน้นไปที่การทำให้มั่นใจว่า AI ปฏิบัติต่อ _ทุกคน_ อย่างยุติธรรม โดยจัดการกับอคติทางสังคม-เทคนิคที่เป็นระบบหรือโดยนัยในข้อมูลและระบบ * [**ความน่าเชื่อถือและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ทำให้มั่นใจว่า AI มีพฤติกรรม _สอดคล้อง_ กับค่านิยมที่กำหนดไว้ ลดอันตรายที่อาจเกิดขึ้นหรือผลกระทบที่ไม่ได้ตั้งใจ * [**ความเป็นส่วนตัวและความปลอดภัย**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการทำความเข้าใจแหล่งที่มาของข้อมูล และให้ _ความเป็นส่วนตัวของข้อมูลและการป้องกันที่เกี่ยวข้อง_ แก่ผู้ใช้ * [**การมีส่วนร่วม**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - เกี่ยวกับการออกแบบโซลูชัน AI ด้วยความตั้งใจ ปรับให้เหมาะสมเพื่อตอบสนอง _ความต้องการและความสามารถของมนุษย์ที่หลากหลาย_ > 🚨 ลองคิดดูว่าแถลงการณ์พันธกิจจริยธรรมข้อมูลของคุณจะเป็นอย่างไร สำรวจกรอบงาน AI ที่มีจริยธรรมจากองค์กรอื่นๆ - นี่คือตัวอย่างจาก [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), และ [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) ค่านิยมร่วมกันที่พวกเขามีเหมือนกันคืออะไร? หลักการเหล่านี้เกี่ยวข้องกับผลิตภัณฑ์ AI หรืออุตสาหกรรมที่พวกเขาดำเนินการอย่างไร? ### 2. ความท้าทายด้านจริยธรรม เมื่อเรากำหนดหลักการจริยธรรมแล้ว ขั้นตอนต่อไปคือการประเมินการกระทำด้านข้อมูลและ AI ของเราเพื่อดูว่าพวกมันสอดคล้องกับค่านิยมร่วมกันเหล่านั้นหรือไม่ ลองคิดถึงการกระทำของคุณในสองหมวดหมู่: _การเก็บรวบรวมข้อมูล_ และ _การออกแบบอัลกอริทึม_ ในการเก็บรวบรวมข้อมูล การกระทำมักจะเกี่ยวข้องกับ **ข้อมูลส่วนบุคคล** หรือข้อมูลที่สามารถระบุตัวบุคคลได้ (PII) สำหรับบุคคลที่สามารถระบุตัวตนได้ ซึ่งรวมถึง [รายการข้อมูลที่ไม่ใช่ส่วนบุคคลที่หลากหลาย](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) ที่ _รวมกัน_ สามารถระบุตัวบุคคลได้ ความท้าทายด้านจริยธรรมอาจเกี่ยวข้องกับ _ความเป็นส่วนตัวของข้อมูล_ _การเป็นเจ้าของข้อมูล_ และหัวข้อที่เกี่ยวข้อง เช่น _การยินยอมที่ได้รับการแจ้ง_ และ _สิทธิในทรัพย์สินทางปัญญา_ ของผู้ใช้ ในการออกแบบอัลกอริทึม การกระทำจะเกี่ยวข้องกับการเก็บรวบรวมและดูแล **ชุดข้อมูล** จากนั้นใช้ชุดข้อมูลเหล่านี้เพื่อฝึกอบรมและปรับใช้ **โมเดลข้อมูล** ที่คาดการณ์ผลลัพธ์หรือทำการตัดสินใจอัตโนมัติในบริบทของโลกแห่งความเป็นจริง ความท้าทายด้านจริยธรรมอาจเกิดจาก _อคติในชุดข้อมูล_ _ปัญหาคุณภาพของข้อมูล_ _ความไม่ยุติธรรม_ และ _การบิดเบือน_ ในอัลกอริทึม - รวมถึงปัญหาบางอย่างที่เป็นระบบ ในทั้งสองกรณี ความท้าทายด้านจริยธรรมเน้นพื้นที่ที่การกระทำของเราอาจขัดแย้งกับค่านิยมร่วมกันของเรา เพื่อที่จะตรวจจับ บรรเทา ลด หรือกำจัดข้อกังวลเหล่านี้ - เราจำเป็นต้องตั้งคำถามทางศีลธรรม "ใช่/ไม่ใช่" ที่เกี่ยวข้องกับการกระทำของเรา จากนั้นดำเนินการแก้ไขตามความจำเป็น มาดูความท้าทายด้านจริยธรรมบางประการและคำถามทางศีลธรรมที่พวกมันก่อให้เกิด: #### 2.1 การเป็นเจ้าของข้อมูล การเก็บรวบรวมข้อมูลมักเกี่ยวข้องกับข้อมูลส่วนบุคคลที่สามารถระบุตัวตนของเจ้าของข้อมูลได้ [การเป็นเจ้าของข้อมูล](https://permission.io/blog/data-ownership) หมายถึง _การควบคุม_ และ [_สิทธิของผู้ใช้_](https://permission.io/blog/data-ownership) ที่เกี่ยวข้องกับการสร้าง การประมวลผล และการเผยแพร่ข้อมูล คำถามทางศีลธรรมที่เราต้องถามคือ: * ใครเป็นเจ้าของข้อมูล? (ผู้ใช้หรือองค์กร) * เจ้าของข้อมูลมีสิทธิอะไรบ้าง? (เช่น การเข้าถึง การลบ การพกพา) * องค์กรมีสิทธิอะไรบ้าง? (เช่น การแก้ไขรีวิวที่เป็นอันตราย) #### 2.2 การยินยอมที่ได้รับการแจ้ง [การยินยอมที่ได้รับการแจ้ง](https://legaldictionary.net/informed-consent/) หมายถึงการกระทำที่ผู้ใช้ยอมรับการกระทำ (เช่น การเก็บข้อมูล) โดยมี _ความเข้าใจอย่างเต็มที่_ เกี่ยวกับข้อเท็จจริงที่เกี่ยวข้อง รวมถึงวัตถุประสงค์ ความเสี่ยงที่อาจเกิดขึ้น และทางเลือกอื่นๆ คำถามที่ควรสำรวจในที่นี้คือ: * ผู้ใช้ (เจ้าของข้อมูล) ให้อนุญาตสำหรับการเก็บและการใช้ข้อมูลหรือไม่? * ผู้ใช้เข้าใจวัตถุประสงค์ที่เก็บข้อมูลหรือไม่? * ผู้ใช้เข้าใจความเสี่ยงที่อาจเกิดขึ้นจากการมีส่วนร่วมของพวกเขาหรือไม่? #### 2.3 ทรัพย์สินทางปัญญา [ทรัพย์สินทางปัญญา](https://en.wikipedia.org/wiki/Intellectual_property) หมายถึงการสร้างสรรค์ที่จับต้องไม่ได้ซึ่งเกิดจากความคิดริเริ่มของมนุษย์ ซึ่งอาจ _มีมูลค่าทางเศรษฐกิจ_ ต่อบุคคลหรือธุรกิจ คำถามที่ควรสำรวจในที่นี้คือ: * ข้อมูลที่เก็บรวบรวมมีมูลค่าทางเศรษฐกิจต่อผู้ใช้หรือธุรกิจหรือไม่? * **ผู้ใช้** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่? * **องค์กร** มีทรัพย์สินทางปัญญาในที่นี้หรือไม่? * หากสิทธิ์เหล่านี้มีอยู่ เราปกป้องสิทธิ์เหล่านี้อย่างไร? #### 2.4 ความเป็นส่วนตัวของข้อมูล [ความเป็นส่วนตัวของข้อมูล](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) หรือความเป็นส่วนตัวของข้อมูลหมายถึงการรักษาความเป็นส่วนตัวของผู้ใช้และการปกป้องตัวตนของผู้ใช้เกี่ยวกับข้อมูลที่สามารถระบุตัวบุคคลได้ คำถามที่ควรสำรวจในที่นี้คือ: * ข้อมูลส่วนบุคคลของผู้ใช้ปลอดภัยจากการแฮ็กและการรั่วไหลหรือไม่? * ข้อมูลของผู้ใช้สามารถเข้าถึงได้เฉพาะผู้ใช้ที่ได้รับอนุญาตและบริบทที่เหมาะสมหรือไม่? * การไม่ระบุตัวตนของผู้ใช้ได้รับการรักษาไว้เมื่อมีการแบ่งปัน [Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) คือการตรวจสอบว่า การออกแบบอัลกอริทึมมีการเลือกปฏิบัติต่อกลุ่มย่อยของข้อมูลอย่างเป็นระบบหรือไม่ ซึ่งอาจนำไปสู่ [ผลกระทบที่อาจเกิดขึ้น](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) ในเรื่องของ _การจัดสรรทรัพยากร_ (ที่ทรัพยากรถูกปฏิเสธหรือถูกระงับจากกลุ่มนั้น) และ _คุณภาพของบริการ_ (ที่ AI มีความแม่นยำไม่เท่ากันสำหรับกลุ่มย่อยต่าง ๆ) คำถามที่ควรพิจารณา: * เราได้ประเมินความแม่นยำของโมเดลสำหรับกลุ่มย่อยและเงื่อนไขที่หลากหลายหรือไม่? * เราได้ตรวจสอบระบบเพื่อหาผลกระทบที่อาจเกิดขึ้น (เช่น การเหมารวม) หรือไม่? * เราสามารถปรับปรุงข้อมูลหรือฝึกโมเดลใหม่เพื่อบรรเทาผลกระทบที่พบได้หรือไม่? สำรวจแหล่งข้อมูล เช่น [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) เพื่อเรียนรู้เพิ่มเติม #### 2.9 การบิดเบือนข้อมูล [Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) คือการตั้งคำถามว่า เรากำลังสื่อสารข้อมูลเชิงลึกจากข้อมูลที่รายงานอย่างซื่อสัตย์ในลักษณะที่หลอกลวงเพื่อสนับสนุนเรื่องราวที่ต้องการหรือไม่ คำถามที่ควรพิจารณา: * เรากำลังรายงานข้อมูลที่ไม่ครบถ้วนหรือไม่ถูกต้องหรือไม่? * เรากำลังแสดงข้อมูลในลักษณะที่นำไปสู่ข้อสรุปที่ทำให้เข้าใจผิดหรือไม่? * เรากำลังใช้เทคนิคทางสถิติที่เลือกสรรเพื่อปรับเปลี่ยนผลลัพธ์หรือไม่? * มีคำอธิบายทางเลือกอื่นที่อาจนำไปสู่ข้อสรุปที่แตกต่างหรือไม่? #### 2.10 การเลือกอย่างอิสระ [Illusion of Free Choice](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) เกิดขึ้นเมื่อ "สถาปัตยกรรมการเลือก" ของระบบใช้อัลกอริทึมการตัดสินใจเพื่อชักจูงให้ผู้คนเลือกผลลัพธ์ที่ต้องการ ในขณะที่ดูเหมือนว่าพวกเขามีตัวเลือกและการควบคุม [รูปแบบมืด](https://www.darkpatterns.org/) เหล่านี้สามารถก่อให้เกิดผลกระทบทางสังคมและเศรษฐกิจต่อผู้ใช้ เนื่องจากการตัดสินใจของผู้ใช้ส่งผลต่อโปรไฟล์พฤติกรรม การกระทำเหล่านี้อาจผลักดันการเลือกในอนาคตที่ขยายผลกระทบของความเสียหายเหล่านี้ คำถามที่ควรพิจารณา: * ผู้ใช้เข้าใจผลกระทบของการเลือกนั้นหรือไม่? * ผู้ใช้ทราบถึงตัวเลือก (ทางเลือก) และข้อดีข้อเสียของแต่ละตัวเลือกหรือไม่? * ผู้ใช้สามารถย้อนกลับการเลือกที่ถูกชักจูงหรืออัตโนมัติในภายหลังได้หรือไม่? ### 3. กรณีศึกษา เพื่อให้เข้าใจความท้าทายด้านจริยธรรมในบริบทของโลกจริง การศึกษากรณีที่แสดงให้เห็นถึงผลกระทบและผลลัพธ์ที่อาจเกิดขึ้นต่อบุคคลและสังคมเมื่อการละเมิดจริยธรรมถูกมองข้ามจะช่วยได้ ตัวอย่างบางส่วน: | ความท้าทายด้านจริยธรรม | กรณีศึกษา | |--- |--- | | **การยินยอมโดยได้รับข้อมูล** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - ผู้ชายชาวแอฟริกันอเมริกันที่เข้าร่วมการศึกษานี้ได้รับสัญญาว่าจะได้รับการดูแลทางการแพทย์ฟรี _แต่ถูกหลอกลวง_ โดยนักวิจัยที่ไม่แจ้งให้ทราบถึงการวินิจฉัยหรือการรักษาที่มีอยู่ ผู้เข้าร่วมหลายคนเสียชีวิต และคู่สมรสหรือบุตรได้รับผลกระทบ การศึกษานี้ดำเนินไปเป็นเวลา 40 ปี | | **ความเป็นส่วนตัวของข้อมูล** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ให้ข้อมูลการจัดอันดับภาพยนตร์ที่ไม่ระบุตัวตนจำนวน _10 ล้านรายการจากลูกค้า 50,000 คน_ เพื่อช่วยปรับปรุงอัลกอริทึมการแนะนำ อย่างไรก็ตาม นักวิจัยสามารถเชื่อมโยงข้อมูลที่ไม่ระบุตัวตนกับข้อมูลที่สามารถระบุตัวตนได้ใน _ชุดข้อมูลภายนอก_ (เช่น ความคิดเห็นใน IMDb) ซึ่งทำให้สามารถ "ระบุตัวตน" ผู้ใช้ Netflix บางคนได้ | | **อคติในการเก็บข้อมูล** | 2013 - เมืองบอสตัน [พัฒนา Street Bump](https://www.boston.gov/transportation/street-bump) แอปที่ให้พลเมืองรายงานหลุมบ่อ เพื่อให้เมืองมีข้อมูลถนนที่ดีขึ้นในการแก้ไขปัญหา อย่างไรก็ตาม [ผู้คนในกลุ่มรายได้ต่ำมีการเข้าถึงรถยนต์และโทรศัพท์น้อยกว่า](https://hbr.org/2013/04/the-hidden-biases-in-big-data) ทำให้ปัญหาถนนของพวกเขาไม่ปรากฏในแอปนี้ นักพัฒนาร่วมมือกับนักวิชาการเพื่อแก้ไขปัญหา _การเข้าถึงที่เท่าเทียมและช่องว่างทางดิจิทัล_ เพื่อความเป็นธรรม | | **ความเป็นธรรมของอัลกอริทึม** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) ประเมินความแม่นยำของผลิตภัณฑ์ AI ที่จำแนกเพศ เผยให้เห็นช่องว่างในความแม่นยำสำหรับผู้หญิงและคนผิวสี [Apple Card ปี 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ดูเหมือนจะให้เครดิตน้อยกว่ากับผู้หญิงเมื่อเทียบกับผู้ชาย ทั้งสองกรณีแสดงให้เห็นถึงปัญหาอคติในอัลกอริทึมที่นำไปสู่ผลกระทบทางเศรษฐกิจและสังคม | | **การบิดเบือนข้อมูล** | 2020 - [กรมสาธารณสุขจอร์เจียเผยแพร่แผนภูมิ COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) ที่ดูเหมือนจะทำให้ประชาชนเข้าใจผิดเกี่ยวกับแนวโน้มของจำนวนผู้ป่วยที่ได้รับการยืนยัน โดยการจัดลำดับแกน x ที่ไม่เป็นไปตามลำดับเวลา ซึ่งแสดงให้เห็นถึงการบิดเบือนผ่านเทคนิคการแสดงภาพ | | **ภาพลวงตาของการเลือกอย่างอิสระ** | 2020 - แอปการเรียนรู้ [ABCmouse จ่ายเงิน 10 ล้านดอลลาร์เพื่อยุติข้อร้องเรียนของ FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) ที่ผู้ปกครองถูกบังคับให้จ่ายเงินสำหรับการสมัครสมาชิกที่ไม่สามารถยกเลิกได้ ซึ่งแสดงให้เห็นถึงรูปแบบมืดในสถาปัตยกรรมการเลือก ที่ผู้ใช้ถูกชักจูงไปสู่การเลือกที่อาจเป็นอันตราย | | **ความเป็นส่วนตัวของข้อมูลและสิทธิของผู้ใช้** | 2021 - [การละเมิดข้อมูล Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) เปิดเผยข้อมูลจากผู้ใช้ 530 ล้านคน ส่งผลให้มีการยุติคดีด้วยเงิน 5 พันล้านดอลลาร์กับ FTC อย่างไรก็ตาม Facebook ปฏิเสธที่จะแจ้งเตือนผู้ใช้เกี่ยวกับการละเมิด ซึ่งเป็นการละเมิดสิทธิของผู้ใช้เกี่ยวกับความโปร่งใสและการเข้าถึงข้อมูล | ต้องการสำรวจกรณีศึกษาเพิ่มเติม? ลองดูแหล่งข้อมูลเหล่านี้: * [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ภาวะที่กลืนไม่เข้าคายไม่ออกด้านจริยธรรมในอุตสาหกรรมต่าง ๆ * [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - กรณีศึกษาสำคัญที่ถูกสำรวจ * [Where things have gone wrong](https://deon.drivendata.org/examples/) - รายการตรวจสอบ Deon พร้อมตัวอย่าง > 🚨 ลองคิดถึงกรณีศึกษาที่คุณเคยเห็น - คุณเคยประสบหรือได้รับผลกระทบจากความท้าทายด้านจริยธรรมที่คล้ายกันในชีวิตของคุณหรือไม่? คุณสามารถคิดถึงกรณีศึกษาอื่นอย่างน้อยหนึ่งกรณีที่แสดงให้เห็นถึงหนึ่งในความท้าทายด้านจริยธรรมที่เราได้พูดถึงในส่วนนี้หรือไม่? ## จริยธรรมประยุกต์ เราได้พูดถึงแนวคิดด้านจริยธรรม ความท้าทาย และกรณีศึกษาในบริบทของโลกจริง แต่เราจะเริ่มต้น _การนำ_ หลักการและแนวปฏิบัติด้านจริยธรรมไปใช้ในโครงการของเราได้อย่างไร? และเราจะ _ทำให้เป็นระบบ_ แนวปฏิบัติเหล่านี้เพื่อการกำกับดูแลที่ดีขึ้นได้อย่างไร? มาสำรวจวิธีแก้ปัญหาในโลกจริงกัน: ### 1. รหัสวิชาชีพ รหัสวิชาชีพเป็นตัวเลือกหนึ่งสำหรับองค์กรในการ "จูงใจ" สมาชิกให้สนับสนุนหลักการด้านจริยธรรมและพันธกิจขององค์กร รหัสเหล่านี้เป็น _แนวทางทางศีลธรรม_ สำหรับพฤติกรรมวิชาชีพ ช่วยให้พนักงานหรือสมาชิกตัดสินใจที่สอดคล้องกับหลักการขององค์กร รหัสเหล่านี้จะมีประสิทธิภาพเท่ากับการปฏิบัติตามโดยสมัครใจของสมาชิก อย่างไรก็ตาม หลายองค์กรมีรางวัลและบทลงโทษเพิ่มเติมเพื่อกระตุ้นการปฏิบัติตามของสมาชิก ตัวอย่าง: * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (สร้างขึ้นในปี 2013) * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (ตั้งแต่ปี 1993) > 🚨 คุณเป็นสมาชิกขององค์กรวิศวกรรมหรือวิทยาศาสตร์ข้อมูลวิชาชีพหรือไม่? สำรวจเว็บไซต์ของพวกเขาเพื่อดูว่าพวกเขากำหนดรหัสจริยธรรมวิชาชีพหรือไม่ สิ่งนี้บอกอะไรเกี่ยวกับหลักการด้านจริยธรรมของพวกเขา? พวกเขา "จูงใจ" สมาชิกให้ปฏิบัติตามรหัสอย่างไร? ### 2. รายการตรวจสอบด้านจริยธรรม ในขณะที่รหัสวิชาชีพกำหนด _พฤติกรรมด้านจริยธรรม_ ที่จำเป็นจากผู้ปฏิบัติงาน แต่ [มีข้อจำกัดที่ทราบกันดี](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ในการบังคับใช้ โดยเฉพาะในโครงการขนาดใหญ่ ผู้เชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลหลายคน [สนับสนุนการใช้รายการตรวจสอบ](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) ซึ่งสามารถ **เชื่อมโยงหลักการกับแนวปฏิบัติ** ในลักษณะที่กำหนดและนำไปปฏิบัติได้จริงมากขึ้น รายการตรวจสอบเปลี่ยนคำถามให้เป็นงาน "ใช่/ไม่ใช่" ที่สามารถนำไปปฏิบัติได้ ทำให้สามารถติดตามได้เป็นส่วนหนึ่งของกระบวนการปล่อยผลิตภัณฑ์มาตรฐาน ตัวอย่าง: * [Deon](https://deon.drivendata.org/) - รายการตรวจสอบจริยธรรมข้อมูลทั่วไปที่สร้างขึ้นจาก [คำแนะนำในอุตสาหกรรม](https://deon.drivendata.org/#checklist-citations) พร้อมเครื่องมือบรรทัดคำสั่งสำหรับการผสานรวมที่ง่ายดาย * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - ให้คำแนะนำทั่วไปสำหรับแนวปฏิบัติในการจัดการข้อมูลจากมุมมองทางกฎหมายและสังคม * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - สร้างโดยผู้ปฏิบัติงานด้าน AI เพื่อสนับสนุนการนำการตรวจสอบความเป็นธรรมไปใช้ในวงจรการพัฒนา AI * [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - กรอบงานที่เปิดกว้างมากขึ้น โครงสร้างสำหรับการสำรวจเบื้องต้นเกี่ยวกับปัญหาด้านจริยธรรมในด้านการออกแบบ การดำเนินการ และบริบทขององค์กร ### 3. กฎระเบียบด้านจริยธรรม จริยธรรมเกี่ยวกับการกำหนดค่านิยมร่วมกันและการทำสิ่งที่ถูกต้อง _โดยสมัครใจ_ **การปฏิบัติตาม** เกี่ยวกับ _การปฏิบัติตามกฎหมาย_ หากมีการกำหนดไว้ **การกำกับดูแล** ครอบคลุมวิธีการทั้งหมดที่องค์กรดำเนินการเพื่อบังคับใช้หลักการด้านจริยธรรมและปฏิบัติตามกฎหมายที่กำหนดไว้ ปัจจุบัน การกำกับดูแลมีสองรูปแบบในองค์กร ประการแรกคือการกำหนดหลักการ **AI ด้านจริยธรรม** และสร้างแนวปฏิบัติเพื่อทำให้การนำไปใช้เป็นระบบในทุกโครงการที่เกี่ยวข้องกับ AI ในองค์กร ประการที่สองคือการปฏิบัติตาม **กฎระเบียบการคุ้มครองข้อมูล** ที่รัฐบาลกำหนดสำหรับภูมิภาคที่องค์กรดำเนินการอยู่ ตัวอย่างกฎระเบียบการคุ้มครองข้อมูลและความเป็นส่วนตัว: * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - ควบคุมการรวบรวม การใช้ และการเปิดเผยข้อมูลส่วนบุคคลของ _รัฐบาลกลาง_ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ปกป้องข้อมูลสุขภาพส่วนบุคคล * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ปกป้องความเป็นส่วนตัวของข้อมูลเด็กอายุต่ำกว่า 13 ปี * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ให้สิทธิผู้ใช้ การคุ้มครองข้อมูล และความเป็นส่วนตัว * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ให้สิทธิผู้บริโภคมากขึ้นเกี่ยวกับข้อมูล (ส่วนบุคคล) ของพวกเขา * `2021`, [กฎหมายคุ้มครองข้อมูลส่วนบุคคลของจีน](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) เพิ่งผ่าน ซึ่งเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวออนไลน์ที่เข้มงวดที่สุดในโลก > 🚨 สหภาพยุโรปกำหนด GDPR (General Data Protection Regulation) ซึ่งยังคงเป็นหนึ่งในกฎระเบียบความเป็นส่วนตัวของข้อมูลที่มีอิทธิพลมากที่สุดในปัจจุบัน คุณทราบหรือไม่ว่ามันยังกำหนด [8 สิทธิของผู้ใช้](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) เพื่อปกป้องความเป็นส่วนตัวทางดิจิทัลและข้อมูลส่วนบุคคลของพลเมือง? เรียนรู้เกี่ยวกับสิ่งเหล่านี้และเหตุผลที่สำคัญ ### 4. วัฒนธรรมด้านจริยธรรม โปรดทราบว่ายังคงมีช่องว่างที่จับต้องไม่ได้ระหว่าง _การปฏิบัติตาม_ (การทำให้เพียงพอเพื่อให้เป็นไปตาม "ตัวอักษรของกฎหมาย") และการแก้ไข [ปัญหาระบบ](https://www.coursera.org/learn/data-science-ethics/home/week/4) (เช่น การแข็งตัวของระบบ ความไม่สมดุลของข้อมูล และความไม่เป็นธรรมในการกระจาย) ที่สามารถเร่งการใช้งาน AI ในทางที่ผิด สิ่งหลังนี้ * [หลักการของ AI ที่มีความรับผิดชอบ](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - เส้นทางการเรียนรู้ฟรีจาก Microsoft Learn * [จริยธรรมและวิทยาศาสตร์ข้อมูล](https://resources.oreilly.com/examples/0636920203964) - หนังสืออิเล็กทรอนิกส์จาก O'Reilly (M. Loukides, H. Mason และคณะ) * [จริยธรรมในวิทยาศาสตร์ข้อมูล](https://www.coursera.org/learn/data-science-ethics#syllabus) - คอร์สออนไลน์จากมหาวิทยาลัยมิชิแกน * [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - กรณีศึกษาจากมหาวิทยาลัยเท็กซัส # งานที่ได้รับมอบหมาย [เขียนกรณีศึกษาด้านจริยธรรมข้อมูล](assignment.md) --- **ข้อจำกัดความรับผิดชอบ**: เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI [Co-op Translator](https://github.com/Azure/co-op-translator) แม้ว่าเราจะพยายามให้การแปลมีความถูกต้องมากที่สุด แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามืออาชีพ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้