You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/ar/1-Introduction/02-ethics
leestott e2b90108bb
🌐 Update translations via Co-op Translator
4 weeks ago
..
README.md 🌐 Update translations via Co-op Translator 4 weeks ago
assignment.md 🌐 Update translations via Co-op Translator 4 weeks ago

README.md

مقدمة إلى أخلاقيات البيانات

 رسم توضيحي بواسطة (@sketchthedocs)
أخلاقيات علم البيانات - رسم توضيحي بواسطة @nitya

نحن جميعًا مواطنون في عالم مليء بالبيانات.

تشير اتجاهات السوق إلى أنه بحلول عام 2022، ستقوم واحدة من كل ثلاث مؤسسات كبيرة بشراء وبيع بياناتها عبر الأسواق والمنصات الإلكترونية. كـ مطوري تطبيقات، سنجد أنه من الأسهل والأرخص دمج رؤى تعتمد على البيانات وأتمتة تعتمد على الخوارزميات في تجارب المستخدم اليومية. ولكن مع انتشار الذكاء الاصطناعي، سنحتاج أيضًا إلى فهم الأضرار المحتملة الناتجة عن تسليح هذه الخوارزميات على نطاق واسع.

تشير الاتجاهات أيضًا إلى أننا سنقوم بإنشاء واستهلاك أكثر من 180 زيتابايت من البيانات بحلول عام 2025. كـ علماء بيانات، يمنحنا هذا مستويات غير مسبوقة من الوصول إلى البيانات الشخصية. وهذا يعني أنه يمكننا بناء ملفات تعريف سلوكية للمستخدمين والتأثير على اتخاذ القرارات بطرق تخلق وهم الاختيار الحر بينما ندفع المستخدمين نحو نتائج نفضلها. كما يثير ذلك أسئلة أوسع حول خصوصية البيانات وحماية المستخدمين.

أخلاقيات البيانات أصبحت الآن حواجز ضرورية لعلم البيانات والهندسة، حيث تساعدنا على تقليل الأضرار المحتملة والعواقب غير المقصودة الناتجة عن أفعالنا المعتمدة على البيانات. يحدد دورة الضجيج للذكاء الاصطناعي من Gartner اتجاهات ذات صلة بالأخلاقيات الرقمية، الذكاء الاصطناعي المسؤول، وحوكمة الذكاء الاصطناعي كعوامل رئيسية تدفع اتجاهات أكبر حول دمقرطة و تصنيع الذكاء الاصطناعي.

دورة الضجيج للذكاء الاصطناعي من Gartner - 2020

في هذه الدرس، سنستكشف مجال أخلاقيات البيانات المثير - بدءًا من المفاهيم الأساسية والتحديات، إلى دراسات الحالة والمفاهيم التطبيقية للذكاء الاصطناعي مثل الحوكمة - التي تساعد في إنشاء ثقافة أخلاقية داخل الفرق والمؤسسات التي تعمل مع البيانات والذكاء الاصطناعي.

اختبار ما قبل المحاضرة 🎯

التعريفات الأساسية

لنبدأ بفهم المصطلحات الأساسية.

كلمة "أخلاقيات" تأتي من الكلمة اليونانية "ethikos" (وجذرها "ethos") التي تعني الطبيعة الأخلاقية أو الشخصية.

الأخلاقيات تتعلق بالقيم المشتركة والمبادئ الأخلاقية التي تحكم سلوكنا في المجتمع. الأخلاقيات لا تعتمد على القوانين بل على الأعراف المقبولة عمومًا لما هو "صحيح مقابل خطأ". ومع ذلك، يمكن أن تؤثر الاعتبارات الأخلاقية على مبادرات الحوكمة المؤسسية واللوائح الحكومية التي تخلق المزيد من الحوافز للامتثال.

أخلاقيات البيانات هي فرع جديد من الأخلاقيات يدرس ويقيم المشكلات الأخلاقية المتعلقة بـ البيانات، الخوارزميات والممارسات المرتبطة بها. هنا، "البيانات" تركز على الإجراءات المتعلقة بإنشاء البيانات، تسجيلها، تنظيمها، معالجتها، نشرها، مشاركتها واستخدامها، "الخوارزميات" تركز على الذكاء الاصطناعي، الوكلاء، التعلم الآلي، والروبوتات، و**"الممارسات"** تركز على مواضيع مثل الابتكار المسؤول، البرمجة، القرصنة، ومدونات الأخلاقيات.

الأخلاقيات التطبيقية هي التطبيق العملي للاعتبارات الأخلاقية. إنها عملية التحقيق النشط في القضايا الأخلاقية في سياق الإجراءات، المنتجات والعمليات الواقعية، واتخاذ إجراءات تصحيحية لضمان توافقها مع القيم الأخلاقية المحددة.

ثقافة الأخلاقيات تتعلق بـ تفعيل الأخلاقيات التطبيقية لضمان تبني المبادئ والممارسات الأخلاقية بشكل متسق وقابل للتوسع عبر المؤسسة بأكملها. ثقافات الأخلاقيات الناجحة تحدد المبادئ الأخلاقية على مستوى المؤسسة، توفر حوافز ذات معنى للامتثال، وتعزز الأعراف الأخلاقية من خلال تشجيع وتضخيم السلوكيات المرغوبة على كل مستوى من مستويات المؤسسة.

مفاهيم الأخلاقيات

في هذا القسم، سنناقش مفاهيم مثل القيم المشتركة (المبادئ) والتحديات الأخلاقية (المشكلات) لأخلاقيات البيانات - وسنستكشف دراسات حالة تساعدك على فهم هذه المفاهيم في سياقات واقعية.

1. مبادئ الأخلاقيات

كل استراتيجية لأخلاقيات البيانات تبدأ بتحديد المبادئ الأخلاقية - "القيم المشتركة" التي تصف السلوكيات المقبولة، وتوجه الإجراءات المتوافقة، في مشاريع البيانات والذكاء الاصطناعي. يمكنك تحديد هذه المبادئ على مستوى الفرد أو الفريق. ومع ذلك، فإن معظم المؤسسات الكبيرة تحددها في بيان مهمة أو إطار عمل للذكاء الاصطناعي الأخلاقي يتم تحديده على مستوى المؤسسة ويتم تطبيقه بشكل متسق عبر جميع الفرق.

مثال: بيان مهمة الذكاء الاصطناعي المسؤول من Microsoft يقول: "نحن ملتزمون بتطوير الذكاء الاصطناعي بناءً على مبادئ أخلاقية تضع الناس في المقام الأول" - مع تحديد 6 مبادئ أخلاقية في الإطار أدناه:

الذكاء الاصطناعي المسؤول في Microsoft

دعونا نستكشف هذه المبادئ بإيجاز. الشفافية و_المساءلة_ هما قيم أساسية تُبنى عليها المبادئ الأخرى - لذا دعونا نبدأ بهما:

  • المساءلة تجعل الممارسين مسؤولين عن عملياتهم في البيانات والذكاء الاصطناعي، وعن الامتثال لهذه المبادئ الأخلاقية.
  • الشفافية تضمن أن تكون الإجراءات المتعلقة بالبيانات والذكاء الاصطناعي مفهومة (قابلة للتفسير) للمستخدمين، مع شرح ما يتم ولماذا.
  • الإنصاف - يركز على ضمان أن يعامل الذكاء الاصطناعي جميع الأشخاص بإنصاف، ومعالجة أي تحيزات اجتماعية-تقنية ضمن البيانات والأنظمة.
  • الموثوقية والسلامة - تضمن أن يتصرف الذكاء الاصطناعي بشكل متسق مع القيم المحددة، مع تقليل الأضرار المحتملة أو العواقب غير المقصودة.
  • الخصوصية والأمان - تتعلق بفهم أصل البيانات، وتوفير خصوصية البيانات والحماية ذات الصلة للمستخدمين.
  • الشمولية - تتعلق بتصميم حلول الذكاء الاصطناعي بنية واضحة، وتكييفها لتلبية مجموعة واسعة من الاحتياجات والقدرات البشرية.

🚨 فكر في ما يمكن أن يكون بيان مهمة أخلاقيات البيانات الخاص بك. استكشف أطر عمل الذكاء الاصطناعي الأخلاقي من مؤسسات أخرى - إليك أمثلة من IBM، Google، وFacebook. ما هي القيم المشتركة التي لديهم؟ كيف ترتبط هذه المبادئ بمنتج الذكاء الاصطناعي أو الصناعة التي يعملون فيها؟

2. تحديات الأخلاقيات

بمجرد تحديد المبادئ الأخلاقية، الخطوة التالية هي تقييم أفعالنا المتعلقة بالبيانات والذكاء الاصطناعي لمعرفة ما إذا كانت تتماشى مع تلك القيم المشتركة. فكر في أفعالك ضمن فئتين: جمع البيانات و_تصميم الخوارزميات_.

في جمع البيانات، قد تتضمن الأفعال بيانات شخصية أو معلومات تعريفية شخصية (PII) لأفراد يمكن التعرف عليهم. يشمل ذلك عناصر متنوعة من البيانات غير الشخصية التي تجمع لتحديد الفرد. يمكن أن تتعلق التحديات الأخلاقية بـ خصوصية البيانات، ملكية البيانات، ومواضيع ذات صلة مثل الموافقة المستنيرة و_حقوق الملكية الفكرية_ للمستخدمين.

في تصميم الخوارزميات، تتضمن الأفعال جمع وتنظيم مجموعات البيانات، ثم استخدامها لتدريب ونشر نماذج البيانات التي تتنبأ بالنتائج أو تؤتمت القرارات في سياقات واقعية. يمكن أن تنشأ التحديات الأخلاقية من تحيز مجموعات البيانات، مشكلات جودة البيانات، عدم الإنصاف، و_التشويه_ في الخوارزميات - بما في ذلك بعض القضايا التي تكون منهجية بطبيعتها.

في كلا الحالتين، تسلط التحديات الأخلاقية الضوء على المناطق التي قد تواجه فيها أفعالنا تعارضًا مع قيمنا المشتركة. للكشف عن هذه المخاوف، تقليلها، أو القضاء عليها - نحتاج إلى طرح أسئلة أخلاقية "نعم/لا" تتعلق بأفعالنا، ثم اتخاذ إجراءات تصحيحية حسب الحاجة. دعونا نلقي نظرة على بعض التحديات الأخلاقية والأسئلة الأخلاقية التي تثيرها:

2.1 ملكية البيانات

جمع البيانات غالبًا ما يتضمن بيانات شخصية يمكن أن تحدد موضوعات البيانات. ملكية البيانات تتعلق بـ التحكم وحقوق المستخدمين المتعلقة بإنشاء البيانات، معالجتها، ونشرها.

الأسئلة الأخلاقية التي نحتاج إلى طرحها هي:

  • من يملك البيانات؟ (المستخدم أم المؤسسة)
  • ما هي حقوق موضوعات البيانات؟ (مثل: الوصول، الحذف، النقل)
  • ما هي حقوق المؤسسات؟ (مثل: تصحيح المراجعات الضارة للمستخدمين)

2.2 الموافقة المستنيرة

الموافقة المستنيرة تعني موافقة المستخدمين على إجراء معين (مثل جمع البيانات) مع فهم كامل للحقائق ذات الصلة بما في ذلك الهدف، المخاطر المحتملة، والبدائل.

الأسئلة التي يجب استكشافها هنا هي:

  • هل أعطى المستخدم (موضوع البيانات) الإذن لجمع البيانات واستخدامها؟
  • هل فهم المستخدم الهدف من جمع تلك البيانات؟
  • هل فهم المستخدم المخاطر المحتملة من مشاركته؟

2.3 الملكية الفكرية

الملكية الفكرية تشير إلى الإبداعات غير الملموسة الناتجة عن المبادرة البشرية، والتي قد تكون لها قيمة اقتصادية للأفراد أو الشركات.

الأسئلة التي يجب استكشافها هنا هي:

  • هل البيانات المجمعة لها قيمة اقتصادية للمستخدم أو الشركة؟
  • هل لدى المستخدم حقوق ملكية فكرية هنا؟
  • هل لدى المؤسسة حقوق ملكية فكرية هنا؟
  • إذا كانت هذه الحقوق موجودة، كيف نحميها؟

2.4 خصوصية البيانات

خصوصية البيانات أو خصوصية المعلومات تشير إلى الحفاظ على خصوصية المستخدم وحماية هويته فيما يتعلق بالمعلومات الشخصية.

الأسئلة التي يجب استكشافها هنا هي:

  • هل بيانات المستخدمين (الشخصية) محمية ضد الاختراقات والتسريبات؟
  • هل بيانات المستخدمين متاحة فقط للمستخدمين والسياقات المصرح بها؟
  • هل يتم الحفاظ على مجهولية المستخدم عند مشاركة البيانات أو نشرها؟
  • هل يمكن تحديد هوية المستخدم من مجموعات البيانات المجهولة؟

2.5 الحق في النسيان

الحق في النسيان أو الحق في الحذف يوفر حماية إضافية للبيانات الشخصية للمستخدمين. بشكل خاص، يمنح المستخدمين الحق في طلب حذف أو إزالة البيانات الشخصية من عمليات البحث على الإنترنت ومواقع أخرى، في ظروف محددة - مما يسمح لهم ببدء جديد على الإنترنت دون أن تؤثر عليهم أفعالهم السابقة.

الأسئلة التي يجب استكشافها هنا هي:

  • هل النظام يسمح لموضوعات البيانات بطلب الحذف؟
  • هل يجب أن يؤدي سحب موافقة المستخدم إلى الحذف التلقائي؟
  • هل تم جمع البيانات بدون موافقة أو بوسائل غير قانونية؟
  • هل نحن ملتزمون باللوائح الحكومية لخصوصية البيانات؟

2.6 تحيز مجموعات البيانات

تحيز مجموعات البيانات أو تحيز الجمع يتعلق باختيار مجموعة بيانات غير ممثلة لتطوير الخوارزميات، مما يخلق احتمالية لعدم الإنصاف في نتائج المخرجات لمجموعات متنوعة. أنواع التحيز تشمل التحيز في الاختيار أو العينة، التحيز التطوعي، وتحيز الأدوات.

الأسئلة التي يجب استكشافها هنا هي:

  • هل قمنا بتجنيد مجموعة ممثلة من موضوعات البيانات؟
  • هل قمنا باختبار مجموعتنا المجمعة أو المنظمة للكشف عن أنواع مختلفة من التحيز؟
  • هل يمكننا تقليل أو إزالة أي تحيزات مكتشفة؟

2.7 جودة البيانات

جودة البيانات تنظر في صلاحية مجموعة البيانات المنظمة المستخدمة لتطوير خوارزمياتنا، للتحقق مما إذا كانت الميزات والسجلات تلبي المتطلبات لمستوى الدقة والاتساق المطلوب لغرض الذكاء الاصطناعي.

الأسئلة التي يجب استكشافها هنا هي:

  • هل قمنا بجمع ميزات صالحة لحالة الاستخدام الخاصة بنا؟
  • هل تم جمع البيانات بشكل متسق عبر مصادر بيانات متنوعة؟
  • هل المجموعة كاملة لظروف أو سيناريوهات متنوعة؟
  • هل المعلومات المجمعة دقيقة في عكس الواقع؟

2.8 إنصاف الخوارزميات

Algorithm Fairness يتحقق مما إذا كان تصميم الخوارزمية يميز بشكل منهجي ضد مجموعات فرعية محددة من الأفراد، مما يؤدي إلى أضرار محتملة في التخصيص (حيث يتم حرمان أو حجب الموارد عن تلك المجموعة) و_جودة الخدمة_ (حيث تكون دقة الذكاء الاصطناعي أقل لبعض المجموعات مقارنة بغيرها).

الأسئلة التي يمكن استكشافها هنا هي:

  • هل قمنا بتقييم دقة النموذج لمجموعات فرعية وظروف متنوعة؟
  • هل قمنا بفحص النظام بحثًا عن أضرار محتملة (مثل التنميط النمطي)؟
  • هل يمكننا مراجعة البيانات أو إعادة تدريب النماذج لتخفيف الأضرار المحددة؟

استكشف موارد مثل قوائم التحقق للعدالة في الذكاء الاصطناعي لمعرفة المزيد.

2.9 التمثيل الخاطئ

التمثيل الخاطئ للبيانات يتعلق بالتساؤل عما إذا كنا ننقل رؤى من بيانات تم الإبلاغ عنها بصدق بطريقة خادعة لدعم سردية مرغوبة.

الأسئلة التي يمكن استكشافها هنا هي:

  • هل نقوم بالإبلاغ عن بيانات غير مكتملة أو غير دقيقة؟
  • هل نقوم بتصور البيانات بطريقة تؤدي إلى استنتاجات مضللة؟
  • هل نستخدم تقنيات إحصائية انتقائية للتلاعب بالنتائج؟
  • هل هناك تفسيرات بديلة قد تقدم استنتاجًا مختلفًا؟

2.10 حرية الاختيار

وهم حرية الاختيار يحدث عندما تستخدم "هندسة الاختيارات" في الأنظمة خوارزميات اتخاذ القرار لدفع الناس نحو اتخاذ نتيجة مفضلة بينما يبدو أنهم يمتلكون خيارات وتحكمًا. يمكن أن تسبب هذه الأنماط المظلمة أضرارًا اجتماعية واقتصادية للمستخدمين. وبما أن قرارات المستخدم تؤثر على ملفات تعريف السلوك، فإن هذه الإجراءات قد تدفع إلى تضخيم أو تمديد تأثير هذه الأضرار في المستقبل.

الأسئلة التي يمكن استكشافها هنا هي:

  • هل فهم المستخدم تداعيات اتخاذ هذا القرار؟
  • هل كان المستخدم على علم بالخيارات (البديلة) ومزايا وعيوب كل منها؟
  • هل يمكن للمستخدم عكس قرار آلي أو متأثر لاحقًا؟

3. دراسات حالة

لفهم هذه التحديات الأخلاقية في سياقات العالم الحقيقي، من المفيد النظر في دراسات حالة تسلط الضوء على الأضرار والعواقب المحتملة للأفراد والمجتمع عندما يتم التغاضي عن هذه الانتهاكات الأخلاقية.

فيما يلي بعض الأمثلة:

التحدي الأخلاقي دراسة الحالة
الموافقة المستنيرة 1972 - دراسة الزهري في توسكيجي - تم وعد الرجال الأمريكيين من أصل أفريقي الذين شاركوا في الدراسة برعاية طبية مجانية لكن تم خداعهم من قبل الباحثين الذين لم يخبروهم بتشخيصهم أو بتوفر العلاج. مات العديد من المشاركين وتأثر شركاؤهم أو أطفالهم؛ استمرت الدراسة 40 عامًا.
خصوصية البيانات 2007 - جائزة بيانات نتفليكس قدمت للباحثين 10 ملايين تقييم أفلام مجهولة المصدر من 50 ألف عميل لتحسين خوارزميات التوصية. ومع ذلك، تمكن الباحثون من ربط البيانات المجهولة ببيانات شخصية قابلة للتحديد في مجموعات بيانات خارجية (مثل تعليقات IMDb) - مما أدى فعليًا إلى "إلغاء إخفاء الهوية" لبعض مشتركي نتفليكس.
تحيز جمع البيانات 2013 - طورت مدينة بوسطن تطبيق Street Bump، وهو تطبيق يسمح للمواطنين بالإبلاغ عن الحفر، مما يوفر للمدينة بيانات أفضل عن الطرق لتحديد المشكلات وإصلاحها. ومع ذلك، كان لدى الأشخاص في المجموعات ذات الدخل المنخفض وصول أقل إلى السيارات والهواتف، مما جعل مشكلات الطرق الخاصة بهم غير مرئية في هذا التطبيق. عمل المطورون مع الأكاديميين على قضايا الوصول العادل والفجوات الرقمية لتحقيق العدالة.
عدالة الخوارزميات 2018 - دراسة Gender Shades من معهد MIT قيمت دقة منتجات تصنيف الجنس بالذكاء الاصطناعي، وكشفت عن فجوات في الدقة للنساء والأشخاص الملونين. بطاقة Apple لعام 2019 بدت وكأنها تقدم ائتمانًا أقل للنساء مقارنة بالرجال. كلاهما يوضح قضايا التحيز الخوارزمي الذي يؤدي إلى أضرار اجتماعية واقتصادية.
التمثيل الخاطئ للبيانات 2020 - أصدرت إدارة الصحة العامة في جورجيا رسومًا بيانية عن COVID-19 بدت وكأنها تضلل المواطنين بشأن اتجاهات الحالات المؤكدة من خلال ترتيب غير زمني على المحور السيني. يوضح هذا التمثيل الخاطئ من خلال حيل التصور.
وهم حرية الاختيار 2020 - دفعت تطبيق التعلم ABCmouse مبلغ 10 ملايين دولار لتسوية شكوى FTC حيث تم حبس الآباء في دفع اشتراكات لم يتمكنوا من إلغائها. يوضح هذا الأنماط المظلمة في هندسة الاختيارات، حيث تم دفع المستخدمين نحو اختيارات قد تكون ضارة.
خصوصية البيانات وحقوق المستخدم 2021 - اختراق بيانات فيسبوك كشف بيانات 530 مليون مستخدم، مما أدى إلى تسوية بقيمة 5 مليارات دولار مع FTC. ومع ذلك، رفضت الشركة إخطار المستخدمين بالاختراق، مما يعد انتهاكًا لحقوق المستخدمين المتعلقة بشفافية البيانات والوصول إليها.

هل تريد استكشاف المزيد من دراسات الحالة؟ تحقق من هذه الموارد:

🚨 فكر في دراسات الحالة التي رأيتها - هل واجهت أو تأثرت بتحدٍ أخلاقي مشابه في حياتك؟ هل يمكنك التفكير في دراسة حالة أخرى توضح أحد التحديات الأخلاقية التي ناقشناها في هذا القسم؟

الأخلاقيات التطبيقية

لقد تحدثنا عن مفاهيم الأخلاقيات، التحديات، ودراسات الحالة في سياقات العالم الحقيقي. ولكن كيف نبدأ في تطبيق المبادئ والممارسات الأخلاقية في مشاريعنا؟ وكيف يمكننا تشغيل هذه الممارسات لتحقيق حوكمة أفضل؟ دعونا نستكشف بعض الحلول الواقعية:

1. الأكواد المهنية

تقدم الأكواد المهنية خيارًا للمنظمات "لتحفيز" الأعضاء لدعم مبادئها الأخلاقية وبيان مهمتها. الأكواد هي إرشادات أخلاقية للسلوك المهني، تساعد الموظفين أو الأعضاء على اتخاذ قرارات تتماشى مع مبادئ منظمتهم. تعتمد فعاليتها على الامتثال الطوعي من الأعضاء؛ ومع ذلك، تقدم العديد من المنظمات مكافآت وعقوبات إضافية لتحفيز الامتثال.

أمثلة تشمل:

🚨 هل تنتمي إلى منظمة مهنية في الهندسة أو علوم البيانات؟ استكشف موقعهم لمعرفة ما إذا كانوا يحددون كودًا مهنيًا للأخلاقيات. ماذا يقول هذا عن مبادئهم الأخلاقية؟ كيف "يحفزون" الأعضاء على اتباع الكود؟

2. قوائم التحقق الأخلاقية

بينما تحدد الأكواد المهنية السلوك الأخلاقي المطلوب من الممارسين، فإنها لها حدود معروفة في التنفيذ، خاصة في المشاريع واسعة النطاق. بدلاً من ذلك، يدعو العديد من خبراء علوم البيانات إلى قوائم التحقق التي يمكنها ربط المبادئ بالممارسات بطرق أكثر تحديدًا وقابلية للتنفيذ.

تحول قوائم التحقق الأسئلة إلى مهام "نعم/لا" يمكن تشغيلها، مما يسمح بتتبعها كجزء من سير عمل إصدار المنتج القياسي.

أمثلة تشمل:

3. اللوائح الأخلاقية

تتعلق الأخلاقيات بتعريف القيم المشتركة وفعل الشيء الصحيح طوعًا. الامتثال يتعلق بـ اتباع القانون إذا كان محددًا. الحوكمة تغطي جميع الطرق التي تعمل بها المنظمات لفرض المبادئ الأخلاقية والامتثال للقوانين المعمول بها.

اليوم، تأخذ الحوكمة شكلين داخل المنظمات. أولاً، يتعلق الأمر بتعريف مبادئ الذكاء الاصطناعي الأخلاقي وإنشاء ممارسات لتشغيل التبني عبر جميع المشاريع المتعلقة بالذكاء الاصطناعي في المنظمة. ثانيًا، يتعلق الأمر بالامتثال لجميع اللوائح الحكومية المتعلقة بحماية البيانات للمناطق التي تعمل فيها.

أمثلة على لوائح حماية البيانات والخصوصية:

🚨 تعرف اللائحة العامة لحماية البيانات GDPR (اللائحة العامة لحماية البيانات) التي حددها الاتحاد الأوروبي بأنها واحدة من أكثر لوائح حماية البيانات تأثيرًا اليوم. هل تعلم أنها تعرف أيضًا 8 حقوق للمستخدم لحماية الخصوصية الرقمية والبيانات الشخصية للمواطنين؟ تعرف على ما هي هذه الحقوق ولماذا هي مهمة.

4. ثقافة الأخلاقيات

لاحظ أن هناك فجوة غير ملموسة بين الامتثال (القيام بما يكفي لتلبية "نص القانون") ومعالجة القضايا النظامية (مثل الجمود، عدم التماثل في المعلومات، وعدم العدالة في التوزيع) التي يمكن أن تسرع من تسليح الذكاء الاصطناعي.

يتطلب الأخير نهجًا تعاونيًا لتعريف ثقافات الأخلاقيات التي تبني روابط عاطفية وقيمًا مشتركة متسقة عبر المنظمات في الصناعة. يتطلب هذا المزيد من ثقافات أخلاقيات البيانات الرسمية في المنظمات - مما يسمح لأي شخص بـ سحب حبل أندون (لإثارة مخاوف أخلاقية مبكرًا في العملية) وجعل التقييمات الأخلاقية (مثل التوظيف) معيارًا أساسيًا لتشكيل الفرق في مشاريع الذكاء الاصطناعي.


اختبار ما بعد المحاضرة 🎯

المراجعة والدراسة الذاتية

تساعد الدورات والكتب على فهم مفاهيم الأخلاقيات الأساسية والتحديات، بينما تساعد دراسات الحالة والأدوات في ممارسات الأخلاقيات التطبيقية في سياقات العالم الحقيقي. إليك بعض الموارد للبدء:

الواجب

كتابة دراسة حالة عن أخلاقيات البيانات


إخلاء المسؤولية:
تم ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي Co-op Translator. بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو معلومات غير دقيقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر الرسمي. للحصول على معلومات حاسمة، يُوصى بالاستعانة بترجمة بشرية احترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة تنشأ عن استخدام هذه الترجمة.