You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/ar/1-Introduction/02-ethics
leestott a12f5d4c2d
🌐 Update translations via Co-op Translator
4 months ago
..
README.md 🌐 Update translations via Co-op Translator 4 months ago
assignment.md 🌐 Update translations via Co-op Translator 5 months ago

README.md

مقدمة إلى أخلاقيات البيانات

 رسم توضيحي من (@sketchthedocs)
أخلاقيات علم البيانات - رسم توضيحي من @nitya

نحن جميعًا مواطنون في عالم مليء بالبيانات.

تشير اتجاهات السوق إلى أنه بحلول عام 2022، ستقوم واحدة من كل ثلاث مؤسسات كبيرة بشراء وبيع بياناتها عبر الأسواق والمنصات الإلكترونية. كـ مطوري تطبيقات، سنجد أنه من الأسهل والأرخص دمج الرؤى المستندة إلى البيانات والأتمتة المدفوعة بالخوارزميات في تجارب المستخدم اليومية. ولكن مع انتشار الذكاء الاصطناعي، سنحتاج أيضًا إلى فهم الأضرار المحتملة الناتجة عن تسليح هذه الخوارزميات على نطاق واسع.

تشير الاتجاهات إلى أنه بحلول عام 2025، سنقوم بإنتاج واستهلاك أكثر من 180 زيتابايت من البيانات. بالنسبة لـ علماء البيانات، يوفر هذا الانفجار في المعلومات وصولًا غير مسبوق إلى البيانات الشخصية والسلوكية. ومع ذلك، تأتي معه القدرة على بناء ملفات تعريف مفصلة للمستخدمين والتأثير بشكل خفي على اتخاذ القرارات - غالبًا بطرق تعزز وهم الاختيار الحر. بينما يمكن استخدام ذلك لتوجيه المستخدمين نحو نتائج مفضلة، فإنه يثير أيضًا أسئلة حاسمة حول خصوصية البيانات، الاستقلالية، والحدود الأخلاقية لتأثير الخوارزميات.

أصبحت أخلاقيات البيانات الآن حواجز ضرورية لعلم البيانات والهندسة، مما يساعدنا على تقليل الأضرار المحتملة والعواقب غير المقصودة الناتجة عن أفعالنا المدفوعة بالبيانات. يحدد دورة الضجيج للذكاء الاصطناعي من Gartner الاتجاهات ذات الصلة في الأخلاقيات الرقمية، الذكاء الاصطناعي المسؤول، وحوكمة الذكاء الاصطناعي كعوامل رئيسية للاتجاهات الكبرى حول دمقرطة و تصنيع الذكاء الاصطناعي.

دورة الضجيج للذكاء الاصطناعي من Gartner - 2020

في هذه الدرس، سنستكشف المجال المثير لأخلاقيات البيانات - بدءًا من المفاهيم الأساسية والتحديات، إلى دراسات الحالة والمفاهيم التطبيقية للذكاء الاصطناعي مثل الحوكمة - التي تساعد في إنشاء ثقافة أخلاقية داخل الفرق والمؤسسات التي تعمل مع البيانات والذكاء الاصطناعي.

اختبار ما قبل المحاضرة 🎯

التعريفات الأساسية

لنبدأ بفهم المصطلحات الأساسية.

كلمة "أخلاقيات" تأتي من الكلمة اليونانية "ethikos" (وجذرها "ethos") التي تعني الطبيعة الأخلاقية أو الشخصية.

الأخلاقيات تتعلق بالقيم المشتركة والمبادئ الأخلاقية التي تحكم سلوكنا في المجتمع. الأخلاقيات لا تستند إلى القوانين بل إلى المعايير المقبولة عمومًا لما هو "صحيح مقابل خطأ". ومع ذلك، يمكن أن تؤثر الاعتبارات الأخلاقية على مبادرات الحوكمة المؤسسية واللوائح الحكومية التي تخلق المزيد من الحوافز للامتثال.

أخلاقيات البيانات هي فرع جديد من الأخلاقيات يدرس ويقيم المشكلات الأخلاقية المتعلقة بـ البيانات، الخوارزميات والممارسات المرتبطة بها. هنا، "البيانات" تركز على الإجراءات المتعلقة بإنشاء، تسجيل، تنظيم، معالجة، نشر، مشاركة، واستخدام البيانات، "الخوارزميات" تركز على الذكاء الاصطناعي، الوكلاء، التعلم الآلي، والروبوتات، و**"الممارسات"** تركز على موضوعات مثل الابتكار المسؤول، البرمجة، القرصنة، ومدونات الأخلاقيات.

الأخلاقيات التطبيقية هي التطبيق العملي للاعتبارات الأخلاقية. إنها عملية التحقيق النشط في القضايا الأخلاقية في سياق الإجراءات، المنتجات والعمليات الواقعية، واتخاذ الإجراءات التصحيحية لضمان توافقها مع قيمنا الأخلاقية المحددة.

ثقافة الأخلاقيات تتعلق بـ تفعيل الأخلاقيات التطبيقية للتأكد من أن مبادئنا وممارساتنا الأخلاقية يتم تبنيها بطريقة متسقة وقابلة للتوسع عبر المؤسسة بأكملها. ثقافات الأخلاقيات الناجحة تحدد مبادئ أخلاقية على مستوى المؤسسة، توفر حوافز ذات معنى للامتثال، وتعزز معايير الأخلاقيات من خلال تشجيع وتضخيم السلوكيات المرغوبة على جميع مستويات المؤسسة.

مفاهيم الأخلاقيات

في هذا القسم، سنناقش مفاهيم مثل القيم المشتركة (المبادئ) والتحديات الأخلاقية (المشكلات) لأخلاقيات البيانات - وسنستكشف دراسات حالة تساعدك على فهم هذه المفاهيم في سياقات واقعية.

1. مبادئ الأخلاقيات

كل استراتيجية لأخلاقيات البيانات تبدأ بتحديد المبادئ الأخلاقية - "القيم المشتركة" التي تصف السلوكيات المقبولة، وتوجه الإجراءات المتوافقة، في مشاريعنا المتعلقة بالبيانات والذكاء الاصطناعي. يمكنك تحديد هذه المبادئ على مستوى الفرد أو الفريق. ومع ذلك، فإن معظم المؤسسات الكبيرة تحددها في بيان مهمة أو إطار عمل للذكاء الاصطناعي الأخلاقي يتم تحديده على مستوى المؤسسة ويتم تطبيقه بشكل متسق عبر جميع الفرق.

مثال: بيان مهمة الذكاء الاصطناعي المسؤول من Microsoft يقول: "نحن ملتزمون بتطوير الذكاء الاصطناعي بناءً على مبادئ أخلاقية تضع الناس في المقام الأول" - مع تحديد 6 مبادئ أخلاقية في الإطار أدناه:

الذكاء الاصطناعي المسؤول في Microsoft

دعونا نستعرض هذه المبادئ بإيجاز. الشفافية و_المساءلة_ هما قيم أساسية تُبنى عليها المبادئ الأخرى - لذا دعونا نبدأ بهما:

  • المساءلة تجعل الممارسين مسؤولين عن عملياتهم المتعلقة بالبيانات والذكاء الاصطناعي، وعن الامتثال لهذه المبادئ الأخلاقية.
  • الشفافية تضمن أن تكون الإجراءات المتعلقة بالبيانات والذكاء الاصطناعي مفهومة (قابلة للتفسير) للمستخدمين، مع شرح ما وراء القرارات.
  • الإنصاف - يركز على ضمان أن يعامل الذكاء الاصطناعي جميع الأشخاص بإنصاف، ومعالجة أي تحيزات اجتماعية أو تقنية ضمن البيانات والنظم.
  • الموثوقية والسلامة - تضمن أن يتصرف الذكاء الاصطناعي بثبات وفقًا للقيم المحددة، مع تقليل الأضرار المحتملة أو العواقب غير المقصودة.
  • الخصوصية والأمان - تتعلق بفهم مصدر البيانات، وتوفير خصوصية البيانات والحماية ذات الصلة للمستخدمين.
  • الشمولية - تتعلق بتصميم حلول الذكاء الاصطناعي بنية واضحة، وتكييفها لتلبية مجموعة واسعة من احتياجات وقدرات البشر.

🚨 فكر في ما يمكن أن يكون بيان مهمتك لأخلاقيات البيانات. استكشف أطر عمل الذكاء الاصطناعي الأخلاقي من مؤسسات أخرى - إليك أمثلة من IBM، Google، وFacebook. ما هي القيم المشتركة التي لديهم؟ كيف ترتبط هذه المبادئ بمنتج الذكاء الاصطناعي أو الصناعة التي يعملون فيها؟

2. تحديات الأخلاقيات

بمجرد تحديد المبادئ الأخلاقية، الخطوة التالية هي تقييم أفعالنا المتعلقة بالبيانات والذكاء الاصطناعي لمعرفة ما إذا كانت تتماشى مع تلك القيم المشتركة. فكر في أفعالك ضمن فئتين: جمع البيانات و_تصميم الخوارزميات_.

في جمع البيانات، قد تتضمن الأفعال البيانات الشخصية أو معلومات التعريف الشخصية (PII) للأفراد. يشمل ذلك عناصر متنوعة من البيانات غير الشخصية التي تحدد الفرد بشكل جماعي. يمكن أن تتعلق التحديات الأخلاقية بـ خصوصية البيانات، ملكية البيانات، وموضوعات ذات صلة مثل الموافقة المستنيرة و_حقوق الملكية الفكرية_ للمستخدمين.

في تصميم الخوارزميات، ستتضمن الأفعال جمع وتنظيم مجموعات البيانات، ثم استخدامها لتدريب ونشر نماذج البيانات التي تتنبأ بالنتائج أو تؤتمت القرارات في سياقات واقعية. يمكن أن تنشأ التحديات الأخلاقية من تحيز مجموعة البيانات، مشكلات جودة البيانات، عدم الإنصاف، و_التشويه_ في الخوارزميات - بما في ذلك بعض القضايا التي تكون منهجية بطبيعتها.

في كلا الحالتين، تسلط تحديات الأخلاقيات الضوء على المناطق التي قد تواجه فيها أفعالنا تعارضًا مع قيمنا المشتركة. للكشف عن هذه المخاوف، التخفيف منها، تقليلها، أو القضاء عليها - نحتاج إلى طرح أسئلة أخلاقية "نعم/لا" تتعلق بأفعالنا، ثم اتخاذ إجراءات تصحيحية حسب الحاجة. دعونا نلقي نظرة على بعض التحديات الأخلاقية والأسئلة الأخلاقية التي تثيرها:

2.1 ملكية البيانات

غالبًا ما يتضمن جمع البيانات بيانات شخصية يمكن أن تحدد موضوعات البيانات. ملكية البيانات تتعلق بـ التحكم وحقوق المستخدمين المتعلقة بإنشاء، معالجة، ونشر البيانات.

الأسئلة الأخلاقية التي نحتاج إلى طرحها هي:

  • من يملك البيانات؟ (المستخدم أم المؤسسة)
  • ما هي حقوق موضوعات البيانات؟ (مثل: الوصول، الحذف، النقل)
  • ما هي حقوق المؤسسات؟ (مثل: تصحيح المراجعات الضارة للمستخدمين)

2.2 الموافقة المستنيرة

الموافقة المستنيرة تعني موافقة المستخدمين على إجراء معين (مثل جمع البيانات) مع فهم كامل للحقائق ذات الصلة بما في ذلك الهدف، المخاطر المحتملة، والبدائل.

الأسئلة التي يجب استكشافها هنا هي:

  • هل أعطى المستخدم (موضوع البيانات) الإذن لجمع واستخدام البيانات؟
  • هل فهم المستخدم الهدف من جمع تلك البيانات؟
  • هل فهم المستخدم المخاطر المحتملة من مشاركته؟

2.3 الملكية الفكرية

الملكية الفكرية تشير إلى الإبداعات غير الملموسة الناتجة عن المبادرة البشرية، والتي قد تكون لها قيمة اقتصادية للأفراد أو الشركات.

الأسئلة التي يجب استكشافها هنا هي:

  • هل للبيانات المجمعة قيمة اقتصادية للمستخدم أو الشركة؟
  • هل يمتلك المستخدم حقوق ملكية فكرية هنا؟
  • هل تمتلك المؤسسة حقوق ملكية فكرية هنا؟
  • إذا كانت هذه الحقوق موجودة، كيف نحميها؟

2.4 خصوصية البيانات

خصوصية البيانات أو خصوصية المعلومات تشير إلى الحفاظ على خصوصية المستخدم وحماية هويته فيما يتعلق بالمعلومات الشخصية.

الأسئلة التي يجب استكشافها هنا هي:

  • هل بيانات المستخدمين (الشخصية) مؤمنة ضد الاختراقات والتسريبات؟
  • هل بيانات المستخدمين متاحة فقط للمستخدمين والسياقات المصرح بها؟
  • هل يتم الحفاظ على إخفاء هوية المستخدم عند مشاركة أو نشر البيانات؟
  • هل يمكن إزالة تحديد هوية المستخدم من مجموعات البيانات المجهولة؟

2.5 الحق في النسيان

الحق في النسيان أو الحق في الحذف يوفر حماية إضافية للبيانات الشخصية للمستخدمين. على وجه التحديد، يمنح المستخدمين الحق في طلب حذف أو إزالة البيانات الشخصية من عمليات البحث على الإنترنت ومواقع أخرى، في ظل ظروف محددة - مما يسمح لهم ببداية جديدة على الإنترنت دون أن تُحتسب عليهم أفعالهم السابقة.

الأسئلة التي يجب استكشافها هنا هي:

  • هل يسمح النظام لموضوعات البيانات بطلب الحذف؟
  • هل يجب أن يؤدي سحب موافقة المستخدم إلى الحذف التلقائي؟
  • هل تم جمع البيانات بدون موافقة أو بوسائل غير قانونية؟
  • هل نحن ملتزمون باللوائح الحكومية لخصوصية البيانات؟

2.6 تحيز مجموعة البيانات

تحيز مجموعة البيانات أو تحيز الجمع يتعلق باختيار مجموعة فرعية غير ممثلة من البيانات لتطوير الخوارزميات، مما يخلق احتمالية لعدم الإنصاف في نتائج المخرجات لمجموعات متنوعة. تشمل أنواع التحيز التحيز في الاختيار أو العينة، التحيز التطوعي، والتحيز في الأدوات.

الأسئلة التي يجب استكشافها هنا هي:

  • هل قمنا بتجنيد مجموعة ممثلة من موضوعات البيانات؟
  • هل قمنا باختبار مجموعتنا المجمعة أو المنظمة للكشف عن تحيزات متنوعة؟
  • هل يمكننا التخفيف من أو إزالة أي تحيزات مكتشفة؟

2.7 جودة البيانات

جودة البيانات تنظر في صلاحية مجموعة البيانات المنظمة المستخدمة لتطوير خوارزمياتنا، للتحقق مما إذا كانت الميزات والسجلات تلبي المتطلبات لمستوى الدقة والاتساق المطلوب لغرض الذكاء الاصطناعي.

الأسئلة التي يجب استكشافها هنا هي:

  • هل قمنا بجمع ميزات صالحة لحالة الاستخدام الخاصة بنا؟
  • هل تم جمع البيانات بشكل متسق عبر مصادر بيانات متنوعة؟
  • هل المجموعة كاملة لظروف أو سيناريوهات متنوعة؟
  • هل يتم التقاط المعلومات بدقة لتعكس الواقع؟

2.8 عدالة الخوارزميات

عدالة الخوارزميات تتحقق من تصميم الخوارزمية لمعرفة ما إذا كانت تميز بشكل منهجي ضد مجموعات معينة من الأشخاص، مما يؤدي إلى أضرار محتملة في التوزيع (حيث يتم حرمان أو حجب الموارد عن تلك المجموعة) و_جودة الخدمة_ (حيث تكون دقة الذكاء الاصطناعي أقل لبعض المجموعات مقارنة بغيرها).

الأسئلة التي يمكن استكشافها هنا:

  • هل قمنا بتقييم دقة النموذج لمجموعات وظروف متنوعة؟
  • هل قمنا بفحص النظام بحثًا عن أضرار محتملة (مثل التنميط)؟
  • هل يمكننا مراجعة البيانات أو إعادة تدريب النماذج لتخفيف الأضرار التي تم تحديدها؟

استكشف موارد مثل قوائم التحقق لعدالة الذكاء الاصطناعي لمعرفة المزيد.

2.9 التمثيل الخاطئ

التمثيل الخاطئ للبيانات يتعلق بالسؤال عما إذا كنا ننقل رؤى من بيانات تم الإبلاغ عنها بصدق بطريقة مضللة لدعم سرد معين.

الأسئلة التي يمكن استكشافها هنا:

  • هل نقوم بالإبلاغ عن بيانات غير مكتملة أو غير دقيقة؟
  • هل نقوم بتصور البيانات بطريقة تؤدي إلى استنتاجات مضللة؟
  • هل نستخدم تقنيات إحصائية انتقائية للتلاعب بالنتائج؟
  • هل هناك تفسيرات بديلة قد تقدم استنتاجًا مختلفًا؟

2.10 حرية الاختيار

وهم حرية الاختيار يحدث عندما تستخدم "هندسة الخيارات" في النظام خوارزميات اتخاذ القرار لدفع الناس نحو اتخاذ نتيجة مفضلة بينما يبدو أنهم يمتلكون خيارات وتحكمًا. هذه الأنماط المظلمة يمكن أن تسبب أضرارًا اجتماعية واقتصادية للمستخدمين. نظرًا لأن قرارات المستخدم تؤثر على ملفات تعريف السلوك، فإن هذه الإجراءات قد تؤدي إلى خيارات مستقبلية تضخم أو تمدد تأثير هذه الأضرار.

الأسئلة التي يمكن استكشافها هنا:

  • هل فهم المستخدم تبعات اتخاذ هذا الخيار؟
  • هل كان المستخدم على علم بالخيارات (البديلة) ومزايا وعيوب كل منها؟
  • هل يمكن للمستخدم عكس خيار تلقائي أو متأثر لاحقًا؟

3. دراسات حالة

لإدراج هذه التحديات الأخلاقية في سياقات العالم الحقيقي، يساعد النظر في دراسات حالة تسلط الضوء على الأضرار والعواقب المحتملة للأفراد والمجتمع عندما يتم تجاهل هذه الانتهاكات الأخلاقية.

إليك بعض الأمثلة:

التحدي الأخلاقي دراسة الحالة
الموافقة المستنيرة 1972 - دراسة مرض الزهري في توسكيجي - تم وعد الرجال الأمريكيين من أصل أفريقي الذين شاركوا في الدراسة برعاية طبية مجانية لكن تم خداعهم من قبل الباحثين الذين لم يبلغوا المشاركين بتشخيصهم أو بتوفر العلاج. مات العديد من المشاركين وتأثرت شركاؤهم أو أطفالهم؛ استمرت الدراسة لمدة 40 عامًا.
خصوصية البيانات 2007 - جائزة بيانات نتفليكس قدمت للباحثين 10 ملايين تقييم أفلام مجهولة من 50 ألف عميل لتحسين خوارزميات التوصية. ومع ذلك، تمكن الباحثون من ربط البيانات المجهولة بالبيانات الشخصية في مجموعات بيانات خارجية (مثل تعليقات IMDb) - مما أدى فعليًا إلى "إزالة إخفاء الهوية" لبعض مشتركي نتفليكس.
تحيز الجمع 2013 - طورت مدينة بوسطن تطبيق Street Bump، وهو تطبيق يسمح للمواطنين بالإبلاغ عن الحفر، مما يوفر للمدينة بيانات أفضل عن الطرق لإيجاد وإصلاح المشكلات. ومع ذلك، الأشخاص في المجموعات ذات الدخل المنخفض لديهم وصول أقل إلى السيارات والهواتف، مما يجعل مشكلات الطرق الخاصة بهم غير مرئية في هذا التطبيق. عمل المطورون مع الأكاديميين على قضايا الوصول العادل والفجوات الرقمية لتحقيق العدالة.
عدالة الخوارزميات 2018 - دراسة Gender Shades من MIT قيمت دقة منتجات تصنيف الجنس بالذكاء الاصطناعي، وكشفت عن فجوات في الدقة بالنسبة للنساء والأشخاص ذوي البشرة الملونة. كما أن بطاقة Apple لعام 2019 بدت وكأنها تقدم ائتمانًا أقل للنساء مقارنة بالرجال. كلاهما أظهر قضايا التحيز في الخوارزميات مما أدى إلى أضرار اجتماعية واقتصادية.
التمثيل الخاطئ للبيانات 2020 - أصدرت وزارة الصحة في جورجيا رسوم بيانية عن حالات COVID-19 التي بدت وكأنها تضلل المواطنين بشأن اتجاهات الحالات المؤكدة من خلال ترتيب غير زمني على المحور السيني. يوضح هذا التمثيل الخاطئ من خلال حيل التصور.
وهم حرية الاختيار 2020 - تطبيق التعلم ABCmouse دفع 10 ملايين دولار لتسوية شكوى FTC حيث تم حبس الآباء في دفع اشتراكات لا يمكنهم إلغاؤها. يوضح هذا الأنماط المظلمة في هندسة الخيارات، حيث تم دفع المستخدمين نحو خيارات قد تكون ضارة.
خصوصية البيانات وحقوق المستخدم 2021 - اختراق بيانات فيسبوك كشف بيانات 530 مليون مستخدم، مما أدى إلى تسوية بقيمة 5 مليارات دولار مع FTC. ومع ذلك، رفضت الشركة إخطار المستخدمين بالاختراق، مما يعد انتهاكًا لحقوق المستخدمين المتعلقة بشفافية البيانات والوصول إليها.

هل تريد استكشاف المزيد من دراسات الحالة؟ تحقق من هذه الموارد:

🚨 فكر في دراسات الحالة التي رأيتها - هل واجهت أو تأثرت بتحدٍ أخلاقي مشابه في حياتك؟ هل يمكنك التفكير في دراسة حالة أخرى توضح أحد التحديات الأخلاقية التي ناقشناها في هذا القسم؟

الأخلاقيات التطبيقية

لقد تحدثنا عن مفاهيم الأخلاقيات، التحديات، ودراسات الحالة في سياقات العالم الحقيقي. ولكن كيف نبدأ بتطبيق المبادئ والممارسات الأخلاقية في مشاريعنا؟ وكيف يمكننا تشغيل هذه الممارسات لتحقيق حوكمة أفضل؟ دعونا نستكشف بعض الحلول الواقعية:

1. الأكواد المهنية

توفر الأكواد المهنية خيارًا للمنظمات لـ "تحفيز" الأعضاء لدعم مبادئها الأخلاقية وبيان مهمتها. الأكواد هي إرشادات أخلاقية للسلوك المهني، تساعد الموظفين أو الأعضاء على اتخاذ قرارات تتماشى مع مبادئ المنظمة. هي جيدة بقدر الامتثال الطوعي من الأعضاء؛ ومع ذلك، تقدم العديد من المنظمات مكافآت وعقوبات إضافية لتحفيز الامتثال من الأعضاء.

أمثلة تشمل:

🚨 هل تنتمي إلى منظمة مهنية للهندسة أو علوم البيانات؟ استكشف موقعهم لمعرفة ما إذا كانوا يحددون كودًا مهنيًا للأخلاقيات. ماذا يقول هذا عن مبادئهم الأخلاقية؟ كيف يقومون بـ "تحفيز" الأعضاء على اتباع الكود؟

2. قوائم التحقق الأخلاقية

بينما تحدد الأكواد المهنية السلوك الأخلاقي المطلوب من الممارسين، فإنها لها قيود معروفة في التنفيذ، خاصة في المشاريع واسعة النطاق. بدلاً من ذلك، يوصي العديد من خبراء علوم البيانات بـ قوائم التحقق، التي يمكنها ربط المبادئ بالممارسات بطرق أكثر تحديدًا وقابلة للتنفيذ.

تحول قوائم التحقق الأسئلة إلى مهام "نعم/لا" يمكن تشغيلها، مما يسمح بتتبعها كجزء من سير عمل إطلاق المنتج القياسي.

أمثلة تشمل:

3. تنظيم الأخلاقيات

الأخلاقيات تتعلق بتحديد القيم المشتركة وفعل الشيء الصحيح طوعًا. الامتثال يتعلق بـ اتباع القانون إذا تم تعريفه. الحوكمة تغطي بشكل عام جميع الطرق التي تعمل بها المنظمات لفرض المبادئ الأخلاقية والامتثال للقوانين المعمول بها.

اليوم، تأخذ الحوكمة شكلين داخل المنظمات. أولاً، يتعلق الأمر بتحديد مبادئ الذكاء الاصطناعي الأخلاقي وإنشاء ممارسات لتشغيل اعتمادها عبر جميع المشاريع المتعلقة بالذكاء الاصطناعي في المنظمة. ثانيًا، يتعلق الأمر بالامتثال لجميع لوائح حماية البيانات التي تفرضها الحكومة للمناطق التي تعمل فيها.

أمثلة على لوائح حماية البيانات والخصوصية:

🚨 الاتحاد الأوروبي الذي عرف اللائحة العامة لحماية البيانات (GDPR) لا يزال واحدًا من أكثر لوائح خصوصية البيانات تأثيرًا اليوم. هل تعلم أنه أيضًا يعرف 8 حقوق للمستخدم لحماية خصوصية المواطنين الرقمية وبياناتهم الشخصية؟ تعرف على ما هي هذه الحقوق ولماذا هي مهمة.

4. ثقافة الأخلاقيات

لاحظ أنه لا يزال هناك فجوة غير ملموسة بين الامتثال (القيام بما يكفي لتلبية "نص القانون") ومعالجة القضايا النظامية (مثل التصلب، عدم التماثل المعلوماتي، وعدم العدالة التوزيعية) التي يمكن أن تسرع من تسليح الذكاء الاصطناعي.

يتطلب الأخير نهجًا تعاونيًا لتحديد ثقافات الأخلاقيات التي تبني روابط عاطفية وقيمًا مشتركة متسقة عبر المنظمات في الصناعة. هذا يدعو إلى المزيد من ثقافات أخلاقيات البيانات الرسمية في المنظمات - مما يسمح لأي شخص بـ سحب حبل أندون (لإثارة مخاوف أخلاقية مبكرًا في العملية) وجعل التقييمات الأخلاقية (مثل التوظيف) معيارًا أساسيًا لتشكيل الفرق في مشاريع الذكاء الاصطناعي.


اختبار ما بعد المحاضرة 🎯

المراجعة والدراسة الذاتية

تساعد الدورات والكتب في فهم مفاهيم الأخلاقيات الأساسية والتحديات، بينما تساعد دراسات الحالة والأدوات في ممارسات الأخلاقيات التطبيقية في سياقات العالم الحقيقي. إليك بعض الموارد للبدء.

المهمة

كتابة دراسة حالة عن أخلاقيات البيانات


إخلاء المسؤولية:
تمت ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي Co-op Translator. بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو عدم دقة. يجب اعتبار المستند الأصلي بلغته الأصلية هو المصدر الموثوق. للحصول على معلومات حاسمة، يُوصى بالترجمة البشرية الاحترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة ناتجة عن استخدام هذه الترجمة.