|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "8796f41f566a0a8ebb72863a83d558ed",
|
|
|
"translation_date": "2025-08-27T08:45:59+00:00",
|
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
|
"language_code": "ar"
|
|
|
}
|
|
|
-->
|
|
|
# مقدمة إلى أخلاقيات البيانات
|
|
|
|
|
|
| ](../../sketchnotes/02-Ethics.png)|
|
|
|
|:---:|
|
|
|
| أخلاقيات علم البيانات - _رسم توضيحي بواسطة [@nitya](https://twitter.com/nitya)_ |
|
|
|
|
|
|
---
|
|
|
|
|
|
نحن جميعًا مواطنون في عالم مليء بالبيانات.
|
|
|
|
|
|
تشير اتجاهات السوق إلى أنه بحلول عام 2022، ستقوم واحدة من كل ثلاث مؤسسات كبيرة بشراء وبيع بياناتها عبر [الأسواق والمنصات الإلكترونية](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). كـ **مطوري تطبيقات**، سنجد أنه من الأسهل والأرخص دمج رؤى تعتمد على البيانات وأتمتة تعتمد على الخوارزميات في تجارب المستخدم اليومية. ولكن مع انتشار الذكاء الاصطناعي، سنحتاج أيضًا إلى فهم الأضرار المحتملة الناتجة عن [تسليح](https://www.youtube.com/watch?v=TQHs8SA1qpk) هذه الخوارزميات على نطاق واسع.
|
|
|
|
|
|
تشير الاتجاهات أيضًا إلى أننا سنقوم بإنشاء واستهلاك أكثر من [180 زيتابايت](https://www.statista.com/statistics/871513/worldwide-data-created/) من البيانات بحلول عام 2025. كـ **علماء بيانات**، يمنحنا هذا مستويات غير مسبوقة من الوصول إلى البيانات الشخصية. وهذا يعني أنه يمكننا بناء ملفات تعريف سلوكية للمستخدمين والتأثير على اتخاذ القرارات بطرق تخلق [وهم الاختيار الحر](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) بينما ندفع المستخدمين نحو نتائج نفضلها. كما يثير ذلك أسئلة أوسع حول خصوصية البيانات وحماية المستخدمين.
|
|
|
|
|
|
أخلاقيات البيانات أصبحت الآن _حواجز ضرورية_ لعلم البيانات والهندسة، حيث تساعدنا على تقليل الأضرار المحتملة والعواقب غير المقصودة الناتجة عن أفعالنا المعتمدة على البيانات. يحدد [دورة الضجيج للذكاء الاصطناعي من Gartner](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) اتجاهات ذات صلة بالأخلاقيات الرقمية، الذكاء الاصطناعي المسؤول، وحوكمة الذكاء الاصطناعي كعوامل رئيسية تدفع اتجاهات أكبر حول _دمقرطة_ و _تصنيع_ الذكاء الاصطناعي.
|
|
|
|
|
|

|
|
|
|
|
|
في هذه الدرس، سنستكشف مجال أخلاقيات البيانات المثير - بدءًا من المفاهيم الأساسية والتحديات، إلى دراسات الحالة والمفاهيم التطبيقية للذكاء الاصطناعي مثل الحوكمة - التي تساعد في إنشاء ثقافة أخلاقية داخل الفرق والمؤسسات التي تعمل مع البيانات والذكاء الاصطناعي.
|
|
|
|
|
|
## [اختبار ما قبل المحاضرة](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
|
|
|
|
|
|
## التعريفات الأساسية
|
|
|
|
|
|
لنبدأ بفهم المصطلحات الأساسية.
|
|
|
|
|
|
كلمة "أخلاقيات" تأتي من [الكلمة اليونانية "ethikos"](https://en.wikipedia.org/wiki/Ethics) (وجذرها "ethos") التي تعني _الطبيعة الأخلاقية أو الشخصية_.
|
|
|
|
|
|
**الأخلاقيات** تتعلق بالقيم المشتركة والمبادئ الأخلاقية التي تحكم سلوكنا في المجتمع. الأخلاقيات لا تعتمد على القوانين بل على الأعراف المقبولة عمومًا لما هو "صحيح مقابل خطأ". ومع ذلك، يمكن أن تؤثر الاعتبارات الأخلاقية على مبادرات الحوكمة المؤسسية واللوائح الحكومية التي تخلق المزيد من الحوافز للامتثال.
|
|
|
|
|
|
**أخلاقيات البيانات** هي [فرع جديد من الأخلاقيات](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) يدرس ويقيم المشكلات الأخلاقية المتعلقة بـ _البيانات، الخوارزميات والممارسات المرتبطة بها_. هنا، **"البيانات"** تركز على الإجراءات المتعلقة بإنشاء البيانات، تسجيلها، تنظيمها، معالجتها، نشرها، مشاركتها واستخدامها، **"الخوارزميات"** تركز على الذكاء الاصطناعي، الوكلاء، التعلم الآلي، والروبوتات، و**"الممارسات"** تركز على مواضيع مثل الابتكار المسؤول، البرمجة، القرصنة، ومدونات الأخلاقيات.
|
|
|
|
|
|
**الأخلاقيات التطبيقية** هي [التطبيق العملي للاعتبارات الأخلاقية](https://en.wikipedia.org/wiki/Applied_ethics). إنها عملية التحقيق النشط في القضايا الأخلاقية في سياق _الإجراءات، المنتجات والعمليات الواقعية_، واتخاذ إجراءات تصحيحية لضمان توافقها مع القيم الأخلاقية المحددة.
|
|
|
|
|
|
**ثقافة الأخلاقيات** تتعلق بـ [_تفعيل_ الأخلاقيات التطبيقية](https://hbr.org/2019/05/how-to-design-an-ethical-organization) لضمان تبني المبادئ والممارسات الأخلاقية بشكل متسق وقابل للتوسع عبر المؤسسة بأكملها. ثقافات الأخلاقيات الناجحة تحدد المبادئ الأخلاقية على مستوى المؤسسة، توفر حوافز ذات معنى للامتثال، وتعزز الأعراف الأخلاقية من خلال تشجيع وتضخيم السلوكيات المرغوبة على كل مستوى من مستويات المؤسسة.
|
|
|
|
|
|
## مفاهيم الأخلاقيات
|
|
|
|
|
|
في هذا القسم، سنناقش مفاهيم مثل **القيم المشتركة** (المبادئ) و**التحديات الأخلاقية** (المشكلات) لأخلاقيات البيانات - وسنستكشف **دراسات حالة** تساعدك على فهم هذه المفاهيم في سياقات واقعية.
|
|
|
|
|
|
### 1. مبادئ الأخلاقيات
|
|
|
|
|
|
كل استراتيجية لأخلاقيات البيانات تبدأ بتحديد _المبادئ الأخلاقية_ - "القيم المشتركة" التي تصف السلوكيات المقبولة، وتوجه الإجراءات المتوافقة، في مشاريع البيانات والذكاء الاصطناعي. يمكنك تحديد هذه المبادئ على مستوى الفرد أو الفريق. ومع ذلك، فإن معظم المؤسسات الكبيرة تحددها في بيان مهمة أو إطار عمل _للذكاء الاصطناعي الأخلاقي_ يتم تحديده على مستوى المؤسسة ويتم تطبيقه بشكل متسق عبر جميع الفرق.
|
|
|
|
|
|
**مثال:** بيان مهمة [الذكاء الاصطناعي المسؤول](https://www.microsoft.com/en-us/ai/responsible-ai) من Microsoft يقول: _"نحن ملتزمون بتطوير الذكاء الاصطناعي بناءً على مبادئ أخلاقية تضع الناس في المقام الأول"_ - مع تحديد 6 مبادئ أخلاقية في الإطار أدناه:
|
|
|
|
|
|

|
|
|
|
|
|
دعونا نستكشف هذه المبادئ بإيجاز. _الشفافية_ و_المساءلة_ هما قيم أساسية تُبنى عليها المبادئ الأخرى - لذا دعونا نبدأ بهما:
|
|
|
|
|
|
* [**المساءلة**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) تجعل الممارسين _مسؤولين_ عن عملياتهم في البيانات والذكاء الاصطناعي، وعن الامتثال لهذه المبادئ الأخلاقية.
|
|
|
* [**الشفافية**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) تضمن أن تكون الإجراءات المتعلقة بالبيانات والذكاء الاصطناعي _مفهومة_ (قابلة للتفسير) للمستخدمين، مع شرح ما يتم ولماذا.
|
|
|
* [**الإنصاف**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - يركز على ضمان أن يعامل الذكاء الاصطناعي _جميع الأشخاص_ بإنصاف، ومعالجة أي تحيزات اجتماعية-تقنية ضمن البيانات والأنظمة.
|
|
|
* [**الموثوقية والسلامة**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تضمن أن يتصرف الذكاء الاصطناعي _بشكل متسق_ مع القيم المحددة، مع تقليل الأضرار المحتملة أو العواقب غير المقصودة.
|
|
|
* [**الخصوصية والأمان**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تتعلق بفهم أصل البيانات، وتوفير _خصوصية البيانات والحماية ذات الصلة_ للمستخدمين.
|
|
|
* [**الشمولية**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تتعلق بتصميم حلول الذكاء الاصطناعي بنية واضحة، وتكييفها لتلبية _مجموعة واسعة من الاحتياجات والقدرات البشرية_.
|
|
|
|
|
|
> 🚨 فكر في ما يمكن أن يكون بيان مهمة أخلاقيات البيانات الخاص بك. استكشف أطر عمل الذكاء الاصطناعي الأخلاقي من مؤسسات أخرى - إليك أمثلة من [IBM](https://www.ibm.com/cloud/learn/ai-ethics)، [Google](https://ai.google/principles)، و[Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). ما هي القيم المشتركة التي لديهم؟ كيف ترتبط هذه المبادئ بمنتج الذكاء الاصطناعي أو الصناعة التي يعملون فيها؟
|
|
|
|
|
|
### 2. تحديات الأخلاقيات
|
|
|
|
|
|
بمجرد تحديد المبادئ الأخلاقية، الخطوة التالية هي تقييم أفعالنا المتعلقة بالبيانات والذكاء الاصطناعي لمعرفة ما إذا كانت تتماشى مع تلك القيم المشتركة. فكر في أفعالك ضمن فئتين: _جمع البيانات_ و_تصميم الخوارزميات_.
|
|
|
|
|
|
في جمع البيانات، قد تتضمن الأفعال **بيانات شخصية** أو معلومات تعريفية شخصية (PII) لأفراد يمكن التعرف عليهم. يشمل ذلك [عناصر متنوعة من البيانات غير الشخصية](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) التي _تجمع_ لتحديد الفرد. يمكن أن تتعلق التحديات الأخلاقية بـ _خصوصية البيانات_، _ملكية البيانات_، ومواضيع ذات صلة مثل _الموافقة المستنيرة_ و_حقوق الملكية الفكرية_ للمستخدمين.
|
|
|
|
|
|
في تصميم الخوارزميات، تتضمن الأفعال جمع وتنظيم **مجموعات البيانات**، ثم استخدامها لتدريب ونشر **نماذج البيانات** التي تتنبأ بالنتائج أو تؤتمت القرارات في سياقات واقعية. يمكن أن تنشأ التحديات الأخلاقية من _تحيز مجموعات البيانات_، _مشكلات جودة البيانات_، _عدم الإنصاف_، و_التشويه_ في الخوارزميات - بما في ذلك بعض القضايا التي تكون منهجية بطبيعتها.
|
|
|
|
|
|
في كلا الحالتين، تسلط التحديات الأخلاقية الضوء على المناطق التي قد تواجه فيها أفعالنا تعارضًا مع قيمنا المشتركة. للكشف عن هذه المخاوف، تقليلها، أو القضاء عليها - نحتاج إلى طرح أسئلة أخلاقية "نعم/لا" تتعلق بأفعالنا، ثم اتخاذ إجراءات تصحيحية حسب الحاجة. دعونا نلقي نظرة على بعض التحديات الأخلاقية والأسئلة الأخلاقية التي تثيرها:
|
|
|
|
|
|
#### 2.1 ملكية البيانات
|
|
|
|
|
|
جمع البيانات غالبًا ما يتضمن بيانات شخصية يمكن أن تحدد موضوعات البيانات. [ملكية البيانات](https://permission.io/blog/data-ownership) تتعلق بـ _التحكم_ و[_حقوق المستخدمين_](https://permission.io/blog/data-ownership) المتعلقة بإنشاء البيانات، معالجتها، ونشرها.
|
|
|
|
|
|
الأسئلة الأخلاقية التي نحتاج إلى طرحها هي:
|
|
|
* من يملك البيانات؟ (المستخدم أم المؤسسة)
|
|
|
* ما هي حقوق موضوعات البيانات؟ (مثل: الوصول، الحذف، النقل)
|
|
|
* ما هي حقوق المؤسسات؟ (مثل: تصحيح المراجعات الضارة للمستخدمين)
|
|
|
|
|
|
#### 2.2 الموافقة المستنيرة
|
|
|
|
|
|
[الموافقة المستنيرة](https://legaldictionary.net/informed-consent/) تعني موافقة المستخدمين على إجراء معين (مثل جمع البيانات) مع _فهم كامل_ للحقائق ذات الصلة بما في ذلك الهدف، المخاطر المحتملة، والبدائل.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل أعطى المستخدم (موضوع البيانات) الإذن لجمع البيانات واستخدامها؟
|
|
|
* هل فهم المستخدم الهدف من جمع تلك البيانات؟
|
|
|
* هل فهم المستخدم المخاطر المحتملة من مشاركته؟
|
|
|
|
|
|
#### 2.3 الملكية الفكرية
|
|
|
|
|
|
[الملكية الفكرية](https://en.wikipedia.org/wiki/Intellectual_property) تشير إلى الإبداعات غير الملموسة الناتجة عن المبادرة البشرية، والتي قد _تكون لها قيمة اقتصادية_ للأفراد أو الشركات.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل البيانات المجمعة لها قيمة اقتصادية للمستخدم أو الشركة؟
|
|
|
* هل لدى **المستخدم** حقوق ملكية فكرية هنا؟
|
|
|
* هل لدى **المؤسسة** حقوق ملكية فكرية هنا؟
|
|
|
* إذا كانت هذه الحقوق موجودة، كيف نحميها؟
|
|
|
|
|
|
#### 2.4 خصوصية البيانات
|
|
|
|
|
|
[خصوصية البيانات](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) أو خصوصية المعلومات تشير إلى الحفاظ على خصوصية المستخدم وحماية هويته فيما يتعلق بالمعلومات الشخصية.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل بيانات المستخدمين (الشخصية) محمية ضد الاختراقات والتسريبات؟
|
|
|
* هل بيانات المستخدمين متاحة فقط للمستخدمين والسياقات المصرح بها؟
|
|
|
* هل يتم الحفاظ على مجهولية المستخدم عند مشاركة البيانات أو نشرها؟
|
|
|
* هل يمكن تحديد هوية المستخدم من مجموعات البيانات المجهولة؟
|
|
|
|
|
|
#### 2.5 الحق في النسيان
|
|
|
|
|
|
[الحق في النسيان](https://en.wikipedia.org/wiki/Right_to_be_forgotten) أو [الحق في الحذف](https://www.gdpreu.org/right-to-be-forgotten/) يوفر حماية إضافية للبيانات الشخصية للمستخدمين. بشكل خاص، يمنح المستخدمين الحق في طلب حذف أو إزالة البيانات الشخصية من عمليات البحث على الإنترنت ومواقع أخرى، _في ظروف محددة_ - مما يسمح لهم ببدء جديد على الإنترنت دون أن تؤثر عليهم أفعالهم السابقة.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل النظام يسمح لموضوعات البيانات بطلب الحذف؟
|
|
|
* هل يجب أن يؤدي سحب موافقة المستخدم إلى الحذف التلقائي؟
|
|
|
* هل تم جمع البيانات بدون موافقة أو بوسائل غير قانونية؟
|
|
|
* هل نحن ملتزمون باللوائح الحكومية لخصوصية البيانات؟
|
|
|
|
|
|
#### 2.6 تحيز مجموعات البيانات
|
|
|
|
|
|
تحيز مجموعات البيانات أو [تحيز الجمع](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) يتعلق باختيار مجموعة بيانات _غير ممثلة_ لتطوير الخوارزميات، مما يخلق احتمالية لعدم الإنصاف في نتائج المخرجات لمجموعات متنوعة. أنواع التحيز تشمل التحيز في الاختيار أو العينة، التحيز التطوعي، وتحيز الأدوات.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل قمنا بتجنيد مجموعة ممثلة من موضوعات البيانات؟
|
|
|
* هل قمنا باختبار مجموعتنا المجمعة أو المنظمة للكشف عن أنواع مختلفة من التحيز؟
|
|
|
* هل يمكننا تقليل أو إزالة أي تحيزات مكتشفة؟
|
|
|
|
|
|
#### 2.7 جودة البيانات
|
|
|
|
|
|
[جودة البيانات](https://lakefs.io/data-quality-testing/) تنظر في صلاحية مجموعة البيانات المنظمة المستخدمة لتطوير خوارزمياتنا، للتحقق مما إذا كانت الميزات والسجلات تلبي المتطلبات لمستوى الدقة والاتساق المطلوب لغرض الذكاء الاصطناعي.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل قمنا بجمع ميزات صالحة لحالة الاستخدام الخاصة بنا؟
|
|
|
* هل تم جمع البيانات _بشكل متسق_ عبر مصادر بيانات متنوعة؟
|
|
|
* هل المجموعة _كاملة_ لظروف أو سيناريوهات متنوعة؟
|
|
|
* هل المعلومات المجمعة _دقيقة_ في عكس الواقع؟
|
|
|
|
|
|
#### 2.8 إنصاف الخوارزميات
|
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) يتحقق مما إذا كان تصميم الخوارزمية يميز بشكل منهجي ضد مجموعات فرعية محددة من الأفراد، مما يؤدي إلى [أضرار محتملة](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) في _التخصيص_ (حيث يتم حرمان أو حجب الموارد عن تلك المجموعة) و_جودة الخدمة_ (حيث تكون دقة الذكاء الاصطناعي أقل لبعض المجموعات مقارنة بغيرها).
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا هي:
|
|
|
* هل قمنا بتقييم دقة النموذج لمجموعات فرعية وظروف متنوعة؟
|
|
|
* هل قمنا بفحص النظام بحثًا عن أضرار محتملة (مثل التنميط النمطي)؟
|
|
|
* هل يمكننا مراجعة البيانات أو إعادة تدريب النماذج لتخفيف الأضرار المحددة؟
|
|
|
|
|
|
استكشف موارد مثل [قوائم التحقق للعدالة في الذكاء الاصطناعي](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) لمعرفة المزيد.
|
|
|
|
|
|
#### 2.9 التمثيل الخاطئ
|
|
|
|
|
|
[التمثيل الخاطئ للبيانات](https://www.sciencedirect.com/topics/computer-science/misrepresentation) يتعلق بالتساؤل عما إذا كنا ننقل رؤى من بيانات تم الإبلاغ عنها بصدق بطريقة خادعة لدعم سردية مرغوبة.
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا هي:
|
|
|
* هل نقوم بالإبلاغ عن بيانات غير مكتملة أو غير دقيقة؟
|
|
|
* هل نقوم بتصور البيانات بطريقة تؤدي إلى استنتاجات مضللة؟
|
|
|
* هل نستخدم تقنيات إحصائية انتقائية للتلاعب بالنتائج؟
|
|
|
* هل هناك تفسيرات بديلة قد تقدم استنتاجًا مختلفًا؟
|
|
|
|
|
|
#### 2.10 حرية الاختيار
|
|
|
[وهم حرية الاختيار](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) يحدث عندما تستخدم "هندسة الاختيارات" في الأنظمة خوارزميات اتخاذ القرار لدفع الناس نحو اتخاذ نتيجة مفضلة بينما يبدو أنهم يمتلكون خيارات وتحكمًا. يمكن أن تسبب هذه [الأنماط المظلمة](https://www.darkpatterns.org/) أضرارًا اجتماعية واقتصادية للمستخدمين. وبما أن قرارات المستخدم تؤثر على ملفات تعريف السلوك، فإن هذه الإجراءات قد تدفع إلى تضخيم أو تمديد تأثير هذه الأضرار في المستقبل.
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا هي:
|
|
|
* هل فهم المستخدم تداعيات اتخاذ هذا القرار؟
|
|
|
* هل كان المستخدم على علم بالخيارات (البديلة) ومزايا وعيوب كل منها؟
|
|
|
* هل يمكن للمستخدم عكس قرار آلي أو متأثر لاحقًا؟
|
|
|
|
|
|
### 3. دراسات حالة
|
|
|
|
|
|
لفهم هذه التحديات الأخلاقية في سياقات العالم الحقيقي، من المفيد النظر في دراسات حالة تسلط الضوء على الأضرار والعواقب المحتملة للأفراد والمجتمع عندما يتم التغاضي عن هذه الانتهاكات الأخلاقية.
|
|
|
|
|
|
فيما يلي بعض الأمثلة:
|
|
|
|
|
|
| التحدي الأخلاقي | دراسة الحالة |
|
|
|
|--- |--- |
|
|
|
| **الموافقة المستنيرة** | 1972 - [دراسة الزهري في توسكيجي](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - تم وعد الرجال الأمريكيين من أصل أفريقي الذين شاركوا في الدراسة برعاية طبية مجانية _لكن تم خداعهم_ من قبل الباحثين الذين لم يخبروهم بتشخيصهم أو بتوفر العلاج. مات العديد من المشاركين وتأثر شركاؤهم أو أطفالهم؛ استمرت الدراسة 40 عامًا. |
|
|
|
| **خصوصية البيانات** | 2007 - [جائزة بيانات نتفليكس](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) قدمت للباحثين _10 ملايين تقييم أفلام مجهولة المصدر من 50 ألف عميل_ لتحسين خوارزميات التوصية. ومع ذلك، تمكن الباحثون من ربط البيانات المجهولة ببيانات شخصية قابلة للتحديد في _مجموعات بيانات خارجية_ (مثل تعليقات IMDb) - مما أدى فعليًا إلى "إلغاء إخفاء الهوية" لبعض مشتركي نتفليكس.|
|
|
|
| **تحيز جمع البيانات** | 2013 - طورت مدينة بوسطن [تطبيق Street Bump](https://www.boston.gov/transportation/street-bump)، وهو تطبيق يسمح للمواطنين بالإبلاغ عن الحفر، مما يوفر للمدينة بيانات أفضل عن الطرق لتحديد المشكلات وإصلاحها. ومع ذلك، [كان لدى الأشخاص في المجموعات ذات الدخل المنخفض وصول أقل إلى السيارات والهواتف](https://hbr.org/2013/04/the-hidden-biases-in-big-data)، مما جعل مشكلات الطرق الخاصة بهم غير مرئية في هذا التطبيق. عمل المطورون مع الأكاديميين على قضايا _الوصول العادل والفجوات الرقمية_ لتحقيق العدالة. |
|
|
|
| **عدالة الخوارزميات** | 2018 - [دراسة Gender Shades](http://gendershades.org/overview.html) من معهد MIT قيمت دقة منتجات تصنيف الجنس بالذكاء الاصطناعي، وكشفت عن فجوات في الدقة للنساء والأشخاص الملونين. [بطاقة Apple لعام 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) بدت وكأنها تقدم ائتمانًا أقل للنساء مقارنة بالرجال. كلاهما يوضح قضايا التحيز الخوارزمي الذي يؤدي إلى أضرار اجتماعية واقتصادية.|
|
|
|
| **التمثيل الخاطئ للبيانات** | 2020 - [أصدرت إدارة الصحة العامة في جورجيا رسومًا بيانية عن COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) بدت وكأنها تضلل المواطنين بشأن اتجاهات الحالات المؤكدة من خلال ترتيب غير زمني على المحور السيني. يوضح هذا التمثيل الخاطئ من خلال حيل التصور. |
|
|
|
| **وهم حرية الاختيار** | 2020 - دفعت تطبيق التعلم [ABCmouse مبلغ 10 ملايين دولار لتسوية شكوى FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) حيث تم حبس الآباء في دفع اشتراكات لم يتمكنوا من إلغائها. يوضح هذا الأنماط المظلمة في هندسة الاختيارات، حيث تم دفع المستخدمين نحو اختيارات قد تكون ضارة. |
|
|
|
| **خصوصية البيانات وحقوق المستخدم** | 2021 - [اختراق بيانات فيسبوك](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) كشف بيانات 530 مليون مستخدم، مما أدى إلى تسوية بقيمة 5 مليارات دولار مع FTC. ومع ذلك، رفضت الشركة إخطار المستخدمين بالاختراق، مما يعد انتهاكًا لحقوق المستخدمين المتعلقة بشفافية البيانات والوصول إليها. |
|
|
|
|
|
|
هل تريد استكشاف المزيد من دراسات الحالة؟ تحقق من هذه الموارد:
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - معضلات أخلاقية عبر صناعات متنوعة.
|
|
|
* [دورة أخلاقيات علوم البيانات](https://www.coursera.org/learn/data-science-ethics#syllabus) - دراسات حالة بارزة مستكشفة.
|
|
|
* [أين حدثت الأخطاء](https://deon.drivendata.org/examples/) - قائمة تحقق Deon مع أمثلة.
|
|
|
|
|
|
> 🚨 فكر في دراسات الحالة التي رأيتها - هل واجهت أو تأثرت بتحدٍ أخلاقي مشابه في حياتك؟ هل يمكنك التفكير في دراسة حالة أخرى توضح أحد التحديات الأخلاقية التي ناقشناها في هذا القسم؟
|
|
|
|
|
|
## الأخلاقيات التطبيقية
|
|
|
|
|
|
لقد تحدثنا عن مفاهيم الأخلاقيات، التحديات، ودراسات الحالة في سياقات العالم الحقيقي. ولكن كيف نبدأ في _تطبيق_ المبادئ والممارسات الأخلاقية في مشاريعنا؟ وكيف يمكننا _تشغيل_ هذه الممارسات لتحقيق حوكمة أفضل؟ دعونا نستكشف بعض الحلول الواقعية:
|
|
|
|
|
|
### 1. الأكواد المهنية
|
|
|
|
|
|
تقدم الأكواد المهنية خيارًا للمنظمات "لتحفيز" الأعضاء لدعم مبادئها الأخلاقية وبيان مهمتها. الأكواد هي _إرشادات أخلاقية_ للسلوك المهني، تساعد الموظفين أو الأعضاء على اتخاذ قرارات تتماشى مع مبادئ منظمتهم. تعتمد فعاليتها على الامتثال الطوعي من الأعضاء؛ ومع ذلك، تقدم العديد من المنظمات مكافآت وعقوبات إضافية لتحفيز الامتثال.
|
|
|
|
|
|
أمثلة تشمل:
|
|
|
|
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) كود الأخلاقيات
|
|
|
* [جمعية علوم البيانات](http://datascienceassn.org/code-of-conduct.html) كود السلوك (تم إنشاؤه عام 2013)
|
|
|
* [كود ACM للأخلاقيات والسلوك المهني](https://www.acm.org/code-of-ethics) (منذ عام 1993)
|
|
|
|
|
|
> 🚨 هل تنتمي إلى منظمة مهنية في الهندسة أو علوم البيانات؟ استكشف موقعهم لمعرفة ما إذا كانوا يحددون كودًا مهنيًا للأخلاقيات. ماذا يقول هذا عن مبادئهم الأخلاقية؟ كيف "يحفزون" الأعضاء على اتباع الكود؟
|
|
|
|
|
|
### 2. قوائم التحقق الأخلاقية
|
|
|
|
|
|
بينما تحدد الأكواد المهنية السلوك الأخلاقي المطلوب من الممارسين، فإنها [لها حدود معروفة](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) في التنفيذ، خاصة في المشاريع واسعة النطاق. بدلاً من ذلك، يدعو العديد من خبراء علوم البيانات إلى [قوائم التحقق](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) التي يمكنها **ربط المبادئ بالممارسات** بطرق أكثر تحديدًا وقابلية للتنفيذ.
|
|
|
|
|
|
تحول قوائم التحقق الأسئلة إلى مهام "نعم/لا" يمكن تشغيلها، مما يسمح بتتبعها كجزء من سير عمل إصدار المنتج القياسي.
|
|
|
|
|
|
أمثلة تشمل:
|
|
|
* [Deon](https://deon.drivendata.org/) - قائمة تحقق عامة لأخلاقيات البيانات تم إنشاؤها من [توصيات الصناعة](https://deon.drivendata.org/#checklist-citations) مع أداة سطر أوامر للتكامل السهل.
|
|
|
* [قائمة تدقيق تدقيق الخصوصية](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - تقدم إرشادات عامة لممارسات التعامل مع المعلومات من منظور التعرض القانوني والاجتماعي.
|
|
|
* [قائمة تدقيق عدالة الذكاء الاصطناعي](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - تم إنشاؤها من قبل ممارسي الذكاء الاصطناعي لدعم تبني ودمج فحوصات العدالة في دورات تطوير الذكاء الاصطناعي.
|
|
|
* [22 سؤالًا للأخلاقيات في البيانات والذكاء الاصطناعي](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - إطار عمل أكثر انفتاحًا، منظم لاستكشاف القضايا الأخلاقية في التصميم والتنفيذ والسياقات التنظيمية.
|
|
|
|
|
|
### 3. اللوائح الأخلاقية
|
|
|
|
|
|
تتعلق الأخلاقيات بتعريف القيم المشتركة وفعل الشيء الصحيح _طوعًا_. **الامتثال** يتعلق بـ _اتباع القانون_ إذا كان محددًا. **الحوكمة** تغطي جميع الطرق التي تعمل بها المنظمات لفرض المبادئ الأخلاقية والامتثال للقوانين المعمول بها.
|
|
|
|
|
|
اليوم، تأخذ الحوكمة شكلين داخل المنظمات. أولاً، يتعلق الأمر بتعريف مبادئ **الذكاء الاصطناعي الأخلاقي** وإنشاء ممارسات لتشغيل التبني عبر جميع المشاريع المتعلقة بالذكاء الاصطناعي في المنظمة. ثانيًا، يتعلق الأمر بالامتثال لجميع اللوائح الحكومية المتعلقة بحماية البيانات للمناطق التي تعمل فيها.
|
|
|
|
|
|
أمثلة على لوائح حماية البيانات والخصوصية:
|
|
|
|
|
|
* `1974`، [قانون الخصوصية الأمريكي](https://www.justice.gov/opcl/privacy-act-1974) - ينظم _جمع الحكومة الفيدرالية_ للمعلومات الشخصية واستخدامها والإفصاح عنها.
|
|
|
* `1996`، [قانون التأمين الصحي الأمريكي HIPAA](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - يحمي البيانات الصحية الشخصية.
|
|
|
* `1998`، [قانون حماية خصوصية الأطفال على الإنترنت COPPA](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - يحمي خصوصية بيانات الأطفال دون سن 13.
|
|
|
* `2018`، [اللائحة العامة لحماية البيانات GDPR](https://gdpr-info.eu/) - توفر حقوق المستخدم، وحماية البيانات، والخصوصية.
|
|
|
* `2018`، [قانون خصوصية المستهلك في كاليفورنيا CCPA](https://www.oag.ca.gov/privacy/ccpa) يمنح المستهلكين المزيد من _الحقوق_ بشأن بياناتهم (الشخصية).
|
|
|
* `2021`، [قانون حماية المعلومات الشخصية في الصين](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) الذي تم تمريره مؤخرًا، مما يخلق واحدة من أقوى لوائح الخصوصية على الإنترنت في العالم.
|
|
|
|
|
|
> 🚨 تعرف اللائحة العامة لحماية البيانات GDPR (اللائحة العامة لحماية البيانات) التي حددها الاتحاد الأوروبي بأنها واحدة من أكثر لوائح حماية البيانات تأثيرًا اليوم. هل تعلم أنها تعرف أيضًا [8 حقوق للمستخدم](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) لحماية الخصوصية الرقمية والبيانات الشخصية للمواطنين؟ تعرف على ما هي هذه الحقوق ولماذا هي مهمة.
|
|
|
|
|
|
### 4. ثقافة الأخلاقيات
|
|
|
|
|
|
لاحظ أن هناك فجوة غير ملموسة بين _الامتثال_ (القيام بما يكفي لتلبية "نص القانون") ومعالجة [القضايا النظامية](https://www.coursera.org/learn/data-science-ethics/home/week/4) (مثل الجمود، عدم التماثل في المعلومات، وعدم العدالة في التوزيع) التي يمكن أن تسرع من تسليح الذكاء الاصطناعي.
|
|
|
|
|
|
يتطلب الأخير [نهجًا تعاونيًا لتعريف ثقافات الأخلاقيات](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) التي تبني روابط عاطفية وقيمًا مشتركة متسقة _عبر المنظمات_ في الصناعة. يتطلب هذا المزيد من [ثقافات أخلاقيات البيانات الرسمية](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) في المنظمات - مما يسمح _لأي شخص_ بـ [سحب حبل أندون](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (لإثارة مخاوف أخلاقية مبكرًا في العملية) وجعل _التقييمات الأخلاقية_ (مثل التوظيف) معيارًا أساسيًا لتشكيل الفرق في مشاريع الذكاء الاصطناعي.
|
|
|
|
|
|
---
|
|
|
## [اختبار ما بعد المحاضرة](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
|
|
|
## المراجعة والدراسة الذاتية
|
|
|
|
|
|
تساعد الدورات والكتب على فهم مفاهيم الأخلاقيات الأساسية والتحديات، بينما تساعد دراسات الحالة والأدوات في ممارسات الأخلاقيات التطبيقية في سياقات العالم الحقيقي. إليك بعض الموارد للبدء:
|
|
|
|
|
|
* [تعلم الآلة للمبتدئين](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - درس حول العدالة، من مايكروسوفت.
|
|
|
* [مبادئ الذكاء الاصطناعي المسؤول](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - مسار تعليمي مجاني من Microsoft Learn.
|
|
|
* [الأخلاقيات وعلوم البيانات](https://resources.oreilly.com/examples/0636920203964) - كتاب إلكتروني من O'Reilly (بقلم م. لوكيديس، هـ. ماسون وآخرون).
|
|
|
* [أخلاقيات علوم البيانات](https://www.coursera.org/learn/data-science-ethics#syllabus) - دورة تعليمية عبر الإنترنت من جامعة ميشيغان.
|
|
|
* [الأخلاقيات غير المغلفة](https://ethicsunwrapped.utexas.edu/case-studies) - دراسات حالة من جامعة تكساس.
|
|
|
|
|
|
# الواجب
|
|
|
|
|
|
[كتابة دراسة حالة عن أخلاقيات البيانات](assignment.md)
|
|
|
|
|
|
---
|
|
|
|
|
|
**إخلاء المسؤولية**:
|
|
|
تم ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي [Co-op Translator](https://github.com/Azure/co-op-translator). بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو معلومات غير دقيقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر الرسمي. للحصول على معلومات حاسمة، يُوصى بالاستعانة بترجمة بشرية احترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة تنشأ عن استخدام هذه الترجمة. |