38 KiB
مقدمة إلى أخلاقيات البيانات
![]() |
---|
أخلاقيات علم البيانات - رسم توضيحي من @nitya |
نحن جميعًا مواطنون في عالم مليء بالبيانات.
تشير الاتجاهات السوقية إلى أنه بحلول عام 2022، ستقوم واحدة من كل ثلاث مؤسسات كبيرة بشراء وبيع بياناتها عبر الأسواق والتبادلات عبر الإنترنت. وبصفتنا مطورين للتطبيقات، سنجد أنه من الأسهل والأرخص دمج الرؤى المستندة إلى البيانات والأتمتة المدفوعة بالخوارزميات في تجارب المستخدم اليومية. ولكن مع انتشار الذكاء الاصطناعي، سنحتاج أيضًا إلى فهم الأضرار المحتملة الناتجة عن تسليح هذه الخوارزميات على نطاق واسع.
تشير الاتجاهات أيضًا إلى أننا سننتج ونستهلك أكثر من 180 زيتابايت من البيانات بحلول عام 2025. وبصفتنا علماء بيانات، يمنحنا هذا مستويات غير مسبوقة من الوصول إلى البيانات الشخصية. وهذا يعني أنه يمكننا بناء ملفات تعريف سلوكية للمستخدمين والتأثير على اتخاذ القرارات بطرق تخلق وهم الاختيار الحر بينما قد ندفع المستخدمين نحو نتائج نفضلها. كما يثير ذلك أسئلة أوسع حول خصوصية البيانات وحماية المستخدمين.
أصبحت أخلاقيات البيانات الآن حواجز ضرورية لعلم البيانات والهندسة، مما يساعدنا على تقليل الأضرار المحتملة والعواقب غير المقصودة الناتجة عن أفعالنا المستندة إلى البيانات. يحدد دورة الضجيج للذكاء الاصطناعي من غارتنر اتجاهات ذات صلة بالأخلاقيات الرقمية، والذكاء الاصطناعي المسؤول، وحوكمة الذكاء الاصطناعي كعوامل رئيسية تدفع الاتجاهات الكبرى حول دمقرطة و_تصنيع_ الذكاء الاصطناعي.
في هذا الدرس، سنستكشف المجال المثير لأخلاقيات البيانات - بدءًا من المفاهيم الأساسية والتحديات، إلى دراسات الحالة والمفاهيم التطبيقية للذكاء الاصطناعي مثل الحوكمة - التي تساعد في إنشاء ثقافة أخلاقية في الفرق والمؤسسات التي تعمل مع البيانات والذكاء الاصطناعي.
اختبار ما قبل المحاضرة 🎯
التعريفات الأساسية
لنبدأ بفهم المصطلحات الأساسية.
كلمة "أخلاقيات" تأتي من الكلمة اليونانية "ethikos" (وجذرها "ethos") التي تعني الطبيعة الأخلاقية أو الشخصية.
الأخلاقيات تتعلق بالقيم المشتركة والمبادئ الأخلاقية التي تحكم سلوكنا في المجتمع. الأخلاقيات لا تستند إلى القوانين بل إلى الأعراف المقبولة عمومًا لما هو "صحيح مقابل خاطئ". ومع ذلك، يمكن أن تؤثر الاعتبارات الأخلاقية على مبادرات الحوكمة المؤسسية واللوائح الحكومية التي تخلق المزيد من الحوافز للامتثال.
أخلاقيات البيانات هي فرع جديد من الأخلاقيات يدرس ويقيّم المشكلات الأخلاقية المتعلقة بـ البيانات والخوارزميات والممارسات المرتبطة بها. هنا، يركز "البيانات" على الإجراءات المتعلقة بإنشاء البيانات وتسجيلها وتنظيمها ومعالجتها ونشرها ومشاركتها واستخدامها، بينما تركز "الخوارزميات" على الذكاء الاصطناعي والوكلاء والتعلم الآلي والروبوتات، وتركز "الممارسات" على موضوعات مثل الابتكار المسؤول، البرمجة، القرصنة، ومدونات الأخلاقيات.
الأخلاقيات التطبيقية هي التطبيق العملي للاعتبارات الأخلاقية. إنها عملية التحقيق النشط في القضايا الأخلاقية في سياق الإجراءات والمنتجات والعمليات الواقعية، واتخاذ التدابير التصحيحية لضمان بقائها متوافقة مع قيمنا الأخلاقية المحددة.
ثقافة الأخلاقيات تتعلق بـ تفعيل الأخلاقيات التطبيقية لضمان تبني المبادئ والممارسات الأخلاقية بطريقة متسقة وقابلة للتوسع عبر المؤسسة بأكملها. تحدد ثقافات الأخلاقيات الناجحة المبادئ الأخلاقية على مستوى المؤسسة، وتوفر حوافز ذات مغزى للامتثال، وتعزز الأعراف الأخلاقية من خلال تشجيع وتضخيم السلوكيات المرغوبة على كل مستوى من مستويات المؤسسة.
مفاهيم الأخلاقيات
في هذا القسم، سنناقش مفاهيم مثل القيم المشتركة (المبادئ) والتحديات الأخلاقية (المشكلات) لأخلاقيات البيانات - وسنستكشف دراسات حالة تساعدك على فهم هذه المفاهيم في سياقات واقعية.
1. مبادئ الأخلاقيات
تبدأ كل استراتيجية لأخلاقيات البيانات بتحديد المبادئ الأخلاقية - وهي "القيم المشتركة" التي تصف السلوكيات المقبولة، وتوجه الإجراءات المتوافقة، في مشاريع البيانات والذكاء الاصطناعي الخاصة بنا. يمكنك تحديد هذه المبادئ على مستوى الفرد أو الفريق. ومع ذلك، فإن معظم المؤسسات الكبيرة تحددها في بيان مهمة أو إطار عمل للذكاء الاصطناعي الأخلاقي يتم تحديده على مستوى المؤسسة ويتم تطبيقه بشكل متسق عبر جميع الفرق.
مثال: بيان مهمة الذكاء الاصطناعي المسؤول من مايكروسوفت ينص على: "نحن ملتزمون بتطوير الذكاء الاصطناعي مدفوعًا بمبادئ أخلاقية تضع الناس في المقام الأول" - مع تحديد 6 مبادئ أخلاقية في الإطار أدناه:
دعونا نستعرض هذه المبادئ بإيجاز. الشفافية و_المساءلة_ هما القيم الأساسية التي تُبنى عليها المبادئ الأخرى - لذا دعونا نبدأ بهما:
- المساءلة تجعل الممارسين مسؤولين عن عملياتهم في البيانات والذكاء الاصطناعي، والامتثال لهذه المبادئ الأخلاقية.
- الشفافية تضمن أن تكون الإجراءات المتعلقة بالبيانات والذكاء الاصطناعي مفهومة (قابلة للتفسير) للمستخدمين، مع شرح ما يحدث ولماذا.
- الإنصاف - يركز على ضمان أن يعامل الذكاء الاصطناعي جميع الأشخاص بإنصاف، ومعالجة أي تحيزات اجتماعية أو تقنية ضمن البيانات والأنظمة.
- الموثوقية والسلامة - تضمن أن يتصرف الذكاء الاصطناعي بثبات وفقًا للقيم المحددة، مع تقليل الأضرار المحتملة أو العواقب غير المقصودة.
- الخصوصية والأمان - تتعلق بفهم مسار البيانات، وتوفير الخصوصية والحماية ذات الصلة للمستخدمين.
- الشمولية - تتعلق بتصميم حلول الذكاء الاصطناعي بنية واضحة، وتكييفها لتلبية مجموعة واسعة من الاحتياجات والقدرات البشرية.
🚨 فكر في ما يمكن أن يكون بيان مهمتك لأخلاقيات البيانات. استكشف أطر عمل الذكاء الاصطناعي الأخلاقي من مؤسسات أخرى - هنا أمثلة من IBM، Google، وFacebook. ما هي القيم المشتركة التي لديهم؟ كيف ترتبط هذه المبادئ بمنتج الذكاء الاصطناعي أو الصناعة التي يعملون فيها؟
2. التحديات الأخلاقية
بمجرد تحديد المبادئ الأخلاقية، تكون الخطوة التالية هي تقييم أفعالنا المتعلقة بالبيانات والذكاء الاصطناعي لمعرفة ما إذا كانت تتماشى مع تلك القيم المشتركة. فكر في أفعالك في فئتين: جمع البيانات و_تصميم الخوارزميات_.
فيما يتعلق بجمع البيانات، قد تتضمن الإجراءات البيانات الشخصية أو المعلومات الشخصية القابلة للتحديد (PII) للأفراد. يشمل ذلك عناصر متنوعة من البيانات غير الشخصية التي تجمع لتحديد هوية الفرد. قد تتعلق التحديات الأخلاقية بـ خصوصية البيانات، ملكية البيانات، وموضوعات ذات صلة مثل الموافقة المستنيرة و_حقوق الملكية الفكرية_ للمستخدمين.
أما بالنسبة لتصميم الخوارزميات، فستتضمن الإجراءات جمع وتنظيم مجموعات البيانات، ثم استخدامها لتدريب ونشر نماذج البيانات التي تتنبأ بالنتائج أو تؤتمت القرارات في سياقات واقعية. قد تنشأ التحديات الأخلاقية من التحيز في مجموعات البيانات، مشكلات جودة البيانات، عدم الإنصاف، و_سوء التمثيل_ في الخوارزميات - بما في ذلك بعض القضايا النظامية.
في كلا الحالتين، تسلط التحديات الأخلاقية الضوء على المناطق التي قد تتعارض فيها أفعالنا مع قيمنا المشتركة. للكشف عن هذه المخاوف أو التخفيف منها أو تقليلها أو القضاء عليها، نحتاج إلى طرح أسئلة أخلاقية "نعم/لا" تتعلق بأفعالنا، ثم اتخاذ الإجراءات التصحيحية حسب الحاجة. دعونا نلقي نظرة على بعض التحديات الأخلاقية والأسئلة الأخلاقية التي تثيرها:
2.1 ملكية البيانات
غالبًا ما يتضمن جمع البيانات بيانات شخصية يمكن أن تحدد هوية الأفراد. ملكية البيانات تتعلق بـ التحكم وحقوق المستخدمين المتعلقة بإنشاء البيانات ومعالجتها ونشرها.
الأسئلة الأخلاقية التي نحتاج إلى طرحها هي:
- من يملك البيانات؟ (المستخدم أم المؤسسة)
- ما هي حقوق الأفراد المتعلقة بالبيانات؟ (مثل: الوصول، الحذف، النقل)
- ما هي حقوق المؤسسات؟ (مثل: تصحيح المراجعات الضارة)
2.2 الموافقة المستنيرة
الموافقة المستنيرة تعني موافقة المستخدمين على إجراء معين (مثل جمع البيانات) مع فهم كامل للحقائق ذات الصلة بما في ذلك الغرض، والمخاطر المحتملة، والبدائل.
الأسئلة التي يجب استكشافها هنا هي:
- هل منح المستخدم (صاحب البيانات) الإذن بجمع البيانات واستخدامها؟
- هل فهم المستخدم الغرض من جمع تلك البيانات؟
- هل فهم المستخدم المخاطر المحتملة من مشاركته؟
2.3 الملكية الفكرية
الملكية الفكرية تشير إلى الإبداعات غير الملموسة الناتجة عن المبادرة البشرية، والتي قد تكون لها قيمة اقتصادية للأفراد أو الشركات.
الأسئلة التي يجب استكشافها هنا هي:
- هل تحتوي البيانات المجمعة على قيمة اقتصادية للمستخدم أو الشركة؟
- هل يمتلك المستخدم حقوق ملكية فكرية هنا؟
- هل تمتلك المؤسسة حقوق ملكية فكرية هنا؟
- إذا كانت هذه الحقوق موجودة، كيف نحميها؟
2.4 خصوصية البيانات
خصوصية البيانات أو خصوصية المعلومات تشير إلى الحفاظ على خصوصية المستخدم وحماية هويته فيما يتعلق بالمعلومات الشخصية القابلة للتحديد.
الأسئلة التي يجب استكشافها هنا هي:
- هل بيانات المستخدمين (الشخصية) محمية من الاختراقات والتسريبات؟
- هل بيانات المستخدمين متاحة فقط للمستخدمين والسياقات المصرح بها؟
- هل يتم الحفاظ على إخفاء هوية المستخدم عند مشاركة البيانات أو نشرها؟
- هل يمكن إزالة هوية المستخدم من مجموعات البيانات المجهولة؟
2.5 الحق في النسيان
الحق في النسيان أو الحق في الحذف يوفر حماية إضافية للبيانات الشخصية للمستخدمين. تحديدًا، يمنح المستخدمين الحق في طلب حذف أو إزالة البيانات الشخصية من عمليات البحث على الإنترنت ومواقع أخرى، في ظروف معينة - مما يسمح لهم ببدء جديد دون أن تُحتسب أفعالهم السابقة ضدهم.
الأسئلة التي يجب استكشافها هنا هي:
- هل يسمح النظام للأفراد بطلب الحذف؟
- هل يجب أن يؤدي سحب موافقة المستخدم إلى الحذف التلقائي؟
- هل تم جمع البيانات دون موافقة أو بوسائل غير قانونية؟
- هل نحن متوافقون مع اللوائح الحكومية لخصوصية البيانات؟
2.6 التحيز في مجموعات البيانات
التحيز في مجموعات البيانات يتعلق باختيار مجموعة بيانات غير ممثلة لتطوير الخوارزميات، مما يخلق احتمالية لعدم الإنصاف في نتائج المخرجات لمجموعات متنوعة. تشمل أنواع التحيز التحيز في الاختيار أو العينة، التحيز التطوعي، والتحيز في الأدوات.
الأسئلة التي يجب استكشافها هنا هي:
- هل قمنا بتجنيد مجموعة ممثلة من الأفراد؟
- هل قمنا باختبار مجموعات البيانات التي جمعناها أو نظمناها للتحقق من وجود تحيزات؟
- هل يمكننا التخفيف من التحيزات المكتشفة أو إزالتها؟
2.7 جودة البيانات
جودة البيانات تتعلق بصحة مجموعة البيانات المستخدمة لتطوير الخوارزميات، والتحقق مما إذا كانت الميزات والسجلات تلبي متطلبات الدقة والاتساق اللازمة لغرض الذكاء الاصطناعي الخاص بنا.
الأسئلة التي يجب استكشافها هنا هي:
- هل قمنا بجمع ميزات صحيحة لحالة الاستخدام الخاصة بنا؟
- هل تم جمع البيانات بشكل متسق عبر مصادر بيانات متنوعة؟
- هل مجموعة البيانات كاملة لظروف أو سيناريوهات متنوعة؟
- هل تم جمع المعلومات بدقة لتعكس الواقع؟
2.8 الإنصاف في الخوارزميات
Algorithm Fairness يتحقق مما إذا كان تصميم الخوارزمية يميز بشكل منهجي ضد مجموعات معينة من الأشخاص، مما يؤدي إلى أضرار محتملة في التخصيص (حيث يتم حرمان أو حجب الموارد عن تلك المجموعة) و_جودة الخدمة_ (حيث تكون دقة الذكاء الاصطناعي أقل لبعض المجموعات مقارنة بغيرها).
الأسئلة التي يمكن استكشافها هنا:
- هل قمنا بتقييم دقة النموذج لمجموعات وظروف متنوعة؟
- هل قمنا بفحص النظام بحثًا عن أضرار محتملة (مثل التنميط)؟
- هل يمكننا تعديل البيانات أو إعادة تدريب النماذج لتخفيف الأضرار المحددة؟
استكشف موارد مثل AI Fairness checklists لمعرفة المزيد.
2.9 التزييف
تزييف البيانات يتعلق بالسؤال عما إذا كنا ننقل رؤى من بيانات تم الإبلاغ عنها بصدق بطريقة خادعة لدعم رواية معينة.
الأسئلة التي يمكن استكشافها هنا:
- هل نقوم بالإبلاغ عن بيانات غير مكتملة أو غير دقيقة؟
- هل نقوم بتصور البيانات بطريقة تؤدي إلى استنتاجات مضللة؟
- هل نستخدم تقنيات إحصائية انتقائية للتلاعب بالنتائج؟
- هل هناك تفسيرات بديلة قد تقدم استنتاجًا مختلفًا؟
2.10 حرية الاختيار
وهم حرية الاختيار يحدث عندما تستخدم "هندسة الاختيار" في الأنظمة خوارزميات اتخاذ القرار لدفع الناس نحو اتخاذ نتيجة مفضلة بينما يبدو أنهم يمتلكون خيارات وتحكمًا. هذه الأنماط المظلمة يمكن أن تسبب أضرارًا اجتماعية واقتصادية للمستخدمين. نظرًا لأن قرارات المستخدم تؤثر على ملفات السلوك، فإن هذه الإجراءات قد تدفع خيارات مستقبلية يمكن أن تضخم أو تمدد تأثير هذه الأضرار.
الأسئلة التي يمكن استكشافها هنا:
- هل فهم المستخدم تبعات اتخاذ هذا القرار؟
- هل كان المستخدم على علم بالخيارات (البديلة) ومزايا وعيوب كل منها؟
- هل يمكن للمستخدم عكس قرار تلقائي أو متأثر لاحقًا؟
3. دراسات حالة
لإدخال هذه التحديات الأخلاقية في سياقات العالم الحقيقي، يساعد النظر في دراسات حالة تسلط الضوء على الأضرار والعواقب المحتملة للأفراد والمجتمع عندما يتم تجاهل هذه الانتهاكات الأخلاقية.
إليك بعض الأمثلة:
التحدي الأخلاقي | دراسة الحالة |
---|---|
الموافقة المستنيرة | 1972 - دراسة مرض الزهري في توسكيجي - الرجال الأمريكيون من أصل أفريقي الذين شاركوا في الدراسة وعدوا برعاية طبية مجانية لكن تم خداعهم من قبل الباحثين الذين لم يبلغوا المشاركين بتشخيصهم أو بتوفر العلاج. مات العديد من المشاركين وتأثر شركاؤهم أو أطفالهم؛ استمرت الدراسة لمدة 40 عامًا. |
خصوصية البيانات | 2007 - جائزة بيانات نتفليكس قدمت للباحثين 10 ملايين تقييم أفلام مجهولة من 50 ألف عميل لتحسين خوارزميات التوصية. ومع ذلك، تمكن الباحثون من ربط البيانات المجهولة ببيانات شخصية في مجموعات بيانات خارجية (مثل تعليقات IMDb) - مما أدى فعليًا إلى "إزالة إخفاء الهوية" لبعض مشتركي نتفليكس. |
تحيز الجمع | 2013 - مدينة بوسطن طورت تطبيق Street Bump، وهو تطبيق يسمح للمواطنين بالإبلاغ عن الحفر، مما يوفر للمدينة بيانات أفضل عن الطرق لإيجاد وإصلاح المشكلات. ومع ذلك، الأشخاص في المجموعات ذات الدخل المنخفض لديهم وصول أقل إلى السيارات والهواتف، مما يجعل مشكلات الطرق الخاصة بهم غير مرئية في هذا التطبيق. عمل المطورون مع الأكاديميين لمعالجة قضايا الوصول العادل والفجوات الرقمية لتحقيق العدالة. |
عدالة الخوارزميات | 2018 - دراسة MIT Gender Shades Study قيمت دقة منتجات تصنيف الجنس بالذكاء الاصطناعي، وكشفت عن فجوات في الدقة للنساء والأشخاص ذوي البشرة الملونة. في بطاقة Apple لعام 2019 بدا أنها تقدم ائتمانًا أقل للنساء مقارنة بالرجال. كلاهما يوضح قضايا التحيز الخوارزمي الذي يؤدي إلى أضرار اجتماعية واقتصادية. |
تزييف البيانات | 2020 - وزارة الصحة في جورجيا أصدرت رسوم بيانية عن حالات COVID-19 التي بدت وكأنها تضلل المواطنين بشأن اتجاهات الحالات المؤكدة باستخدام ترتيب غير زمني على المحور السيني. هذا يوضح التزييف من خلال حيل التصور. |
وهم حرية الاختيار | 2020 - تطبيق التعلم ABCmouse دفع 10 ملايين دولار لتسوية شكوى FTC حيث تم حبس الآباء في دفع اشتراكات لا يمكنهم إلغاؤها. هذا يوضح الأنماط المظلمة في هندسة الاختيار، حيث تم دفع المستخدمين نحو خيارات قد تكون ضارة. |
خصوصية البيانات وحقوق المستخدم | 2021 - اختراق بيانات فيسبوك كشف بيانات 530 مليون مستخدم، مما أدى إلى تسوية بقيمة 5 مليارات دولار مع FTC. ومع ذلك، رفضت الشركة إخطار المستخدمين بالاختراق، مما ينتهك حقوق المستخدمين حول شفافية البيانات والوصول إليها. |
هل تريد استكشاف المزيد من دراسات الحالة؟ تحقق من هذه الموارد:
- Ethics Unwrapped - معضلات أخلاقية عبر صناعات متنوعة.
- دورة أخلاقيات علوم البيانات - دراسات حالة بارزة مستكشفة.
- أين حدثت الأخطاء - قائمة Deon مع أمثلة.
🚨 فكر في دراسات الحالة التي رأيتها - هل واجهت أو تأثرت بتحدٍ أخلاقي مشابه في حياتك؟ هل يمكنك التفكير في دراسة حالة أخرى توضح أحد التحديات الأخلاقية التي ناقشناها في هذا القسم؟
الأخلاقيات التطبيقية
لقد تحدثنا عن مفاهيم الأخلاقيات، التحديات، ودراسات الحالة في سياقات العالم الحقيقي. ولكن كيف نبدأ في تطبيق المبادئ والممارسات الأخلاقية في مشاريعنا؟ وكيف يمكننا تشغيل هذه الممارسات لتحقيق حوكمة أفضل؟ دعونا نستكشف بعض الحلول الواقعية:
1. الأكواد المهنية
الأكواد المهنية تقدم خيارًا للمنظمات لـ "تحفيز" الأعضاء لدعم مبادئها الأخلاقية وبيان مهمتها. الأكواد هي إرشادات أخلاقية للسلوك المهني، تساعد الموظفين أو الأعضاء على اتخاذ قرارات تتماشى مع مبادئ المنظمة. هي جيدة بقدر الامتثال الطوعي من الأعضاء؛ ومع ذلك، تقدم العديد من المنظمات مكافآت وعقوبات إضافية لتحفيز الامتثال.
أمثلة تشمل:
- Oxford Munich كود الأخلاقيات
- جمعية علوم البيانات كود السلوك (تم إنشاؤه عام 2013)
- ACM Code of Ethics and Professional Conduct (منذ عام 1993)
🚨 هل تنتمي إلى منظمة مهنية للهندسة أو علوم البيانات؟ استكشف موقعهم لمعرفة ما إذا كانوا يحددون كودًا مهنيًا للأخلاقيات. ماذا يقول هذا عن مبادئهم الأخلاقية؟ كيف يحفزون الأعضاء على اتباع الكود؟
2. قوائم التحقق الأخلاقية
بينما تحدد الأكواد المهنية السلوك الأخلاقي المطلوب من الممارسين، فإنها لها قيود معروفة في التنفيذ، خاصة في المشاريع واسعة النطاق. بدلاً من ذلك، العديد من خبراء علوم البيانات يدعون إلى قوائم التحقق، التي يمكنها ربط المبادئ بالممارسات بطرق أكثر تحديدًا وقابلة للتنفيذ.
تحول قوائم التحقق الأسئلة إلى مهام "نعم/لا" يمكن تشغيلها، مما يسمح بتتبعها كجزء من سير عمل إطلاق المنتجات القياسي.
أمثلة تشمل:
- Deon - قائمة تحقق عامة لأخلاقيات البيانات تم إنشاؤها من توصيات الصناعة مع أداة سطر أوامر للتكامل السهل.
- قائمة تحقق تدقيق الخصوصية - تقدم إرشادات عامة لممارسات التعامل مع المعلومات من منظور التعرض القانوني والاجتماعي.
- قائمة تحقق عدالة الذكاء الاصطناعي - تم إنشاؤها بواسطة ممارسي الذكاء الاصطناعي لدعم اعتماد ودمج فحوصات العدالة في دورات تطوير الذكاء الاصطناعي.
- 22 سؤالًا للأخلاقيات في البيانات والذكاء الاصطناعي - إطار عمل أكثر انفتاحًا، منظم للاستكشاف الأولي للقضايا الأخلاقية في التصميم، التنفيذ، والسياقات التنظيمية.
3. تنظيم الأخلاقيات
الأخلاقيات تتعلق بتحديد القيم المشتركة وفعل الشيء الصحيح طوعًا. الامتثال يتعلق بـ اتباع القانون إذا تم تحديده. الحوكمة تغطي بشكل عام جميع الطرق التي تعمل بها المنظمات لفرض المبادئ الأخلاقية والامتثال للقوانين المعمول بها.
اليوم، تأخذ الحوكمة شكلين داخل المنظمات. أولاً، يتعلق بتحديد مبادئ الذكاء الاصطناعي الأخلاقي وإنشاء ممارسات لتشغيل اعتمادها عبر جميع المشاريع المتعلقة بالذكاء الاصطناعي في المنظمة. ثانيًا، يتعلق بالامتثال لجميع لوائح حماية البيانات التي تفرضها الحكومة للمناطق التي تعمل فيها.
أمثلة على لوائح حماية البيانات والخصوصية:
1974
, قانون الخصوصية الأمريكي - ينظم جمع واستخدام وكشف المعلومات الشخصية من قبل الحكومة الفيدرالية.1996
, قانون التأمين الصحي الأمريكي (HIPAA) - يحمي البيانات الصحية الشخصية.1998
, قانون حماية خصوصية الأطفال عبر الإنترنت الأمريكي (COPPA) - يحمي خصوصية بيانات الأطفال تحت سن 13.2018
, اللائحة العامة لحماية البيانات (GDPR) - توفر حقوق المستخدم، حماية البيانات، والخصوصية.2018
, قانون خصوصية المستهلك في كاليفورنيا (CCPA) يمنح المستهلكين المزيد من الحقوق على بياناتهم الشخصية.2021
, قانون حماية المعلومات الشخصية في الصين الذي تم تمريره مؤخرًا، مما يخلق واحدة من أقوى لوائح خصوصية البيانات عبر الإنترنت في العالم.
🚨 الاتحاد الأوروبي حدد اللائحة العامة لحماية البيانات (GDPR) التي تظل واحدة من أكثر لوائح خصوصية البيانات تأثيرًا اليوم. هل تعلم أنها تحدد أيضًا 8 حقوق للمستخدم لحماية خصوصية المواطنين الرقمية وبياناتهم الشخصية؟ تعرف على ما هي هذه الحقوق ولماذا هي مهمة.
4. ثقافة الأخلاقيات
لاحظ أن هناك فجوة غير ملموسة بين الامتثال (القيام بما يكفي لتلبية "نص القانون") ومعالجة القضايا النظامية (مثل التصلب، عدم التماثل المعلوماتي، وعدم العدالة التوزيعية) التي يمكن أن تسرع من تسليح الذكاء الاصطناعي.
يتطلب الأخير نهجًا تعاونيًا لتحديد ثقافات الأخلاقيات التي تبني روابط عاطفية وقيمًا مشتركة متسقة عبر المنظمات في الصناعة. هذا يدعو إلى المزيد من ثقافات أخلاقيات البيانات الرسمية في المنظمات - مما يسمح لأي شخص بـ سحب حبل أندون (لإثارة مخاوف أخلاقية مبكرًا في العملية) وجعل التقييمات الأخلاقية (مثل التوظيف) معيارًا أساسيًا لتشكيل الفرق في مشاريع الذكاء الاصطناعي.
اختبار ما بعد المحاضرة 🎯
المراجعة والدراسة الذاتية
الدورات والكتب تساعد في فهم مفاهيم الأخلاقيات الأساسية والتحديات، بينما تساعد دراسات الحالة والأدوات في ممارسات الأخلاقيات التطبيقية في سياقات العالم الحقيقي. إليك بعض الموارد للبدء.
- تعلم الآلة للمبتدئين - درس عن العدالة، من مايكروسوفت.
- مبادئ الذكاء الاصطناعي المسؤول - مسار تعليمي مجاني من Microsoft Learn.
- الأخلاقيات وعلوم البيانات - كتاب إلكتروني من O'Reilly (بقلم م. لوكيديس، هـ. ماسون وآخرون).
- أخلاقيات علوم البيانات - دورة تعليمية عبر الإنترنت من جامعة ميشيغان.
- الأخلاقيات غير المغلفة - دراسات حالة من جامعة تكساس.
الواجب
كتابة دراسة حالة عن أخلاقيات البيانات
إخلاء المسؤولية:
تم ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي Co-op Translator. بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو معلومات غير دقيقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر الموثوق. للحصول على معلومات حاسمة، يُوصى بالاستعانة بترجمة بشرية احترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة تنشأ عن استخدام هذه الترجمة.