|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
|
|
|
"translation_date": "2025-09-06T06:31:14+00:00",
|
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
|
"language_code": "ar"
|
|
|
}
|
|
|
-->
|
|
|
# مقدمة إلى أخلاقيات البيانات
|
|
|
|
|
|
| ](../../sketchnotes/02-Ethics.png)|
|
|
|
|:---:|
|
|
|
| أخلاقيات علم البيانات - _رسم توضيحي من [@nitya](https://twitter.com/nitya)_ |
|
|
|
|
|
|
---
|
|
|
|
|
|
نحن جميعًا مواطنون في عالم مليء بالبيانات.
|
|
|
|
|
|
تشير الاتجاهات السوقية إلى أنه بحلول عام 2022، ستقوم واحدة من كل ثلاث مؤسسات كبيرة بشراء وبيع بياناتها عبر [الأسواق والتبادلات](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) عبر الإنترنت. وبصفتنا **مطورين للتطبيقات**، سنجد أنه من الأسهل والأرخص دمج الرؤى المستندة إلى البيانات والأتمتة المدفوعة بالخوارزميات في تجارب المستخدم اليومية. ولكن مع انتشار الذكاء الاصطناعي، سنحتاج أيضًا إلى فهم الأضرار المحتملة الناتجة عن [تسليح](https://www.youtube.com/watch?v=TQHs8SA1qpk) هذه الخوارزميات على نطاق واسع.
|
|
|
|
|
|
تشير الاتجاهات أيضًا إلى أننا سننتج ونستهلك أكثر من [180 زيتابايت](https://www.statista.com/statistics/871513/worldwide-data-created/) من البيانات بحلول عام 2025. وبصفتنا **علماء بيانات**، يمنحنا هذا مستويات غير مسبوقة من الوصول إلى البيانات الشخصية. وهذا يعني أنه يمكننا بناء ملفات تعريف سلوكية للمستخدمين والتأثير على اتخاذ القرارات بطرق تخلق [وهم الاختيار الحر](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) بينما قد ندفع المستخدمين نحو نتائج نفضلها. كما يثير ذلك أسئلة أوسع حول خصوصية البيانات وحماية المستخدمين.
|
|
|
|
|
|
أصبحت أخلاقيات البيانات الآن _حواجز ضرورية_ لعلم البيانات والهندسة، مما يساعدنا على تقليل الأضرار المحتملة والعواقب غير المقصودة الناتجة عن أفعالنا المستندة إلى البيانات. يحدد [دورة الضجيج للذكاء الاصطناعي من غارتنر](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) اتجاهات ذات صلة بالأخلاقيات الرقمية، والذكاء الاصطناعي المسؤول، وحوكمة الذكاء الاصطناعي كعوامل رئيسية تدفع الاتجاهات الكبرى حول _دمقرطة_ و_تصنيع_ الذكاء الاصطناعي.
|
|
|
|
|
|

|
|
|
|
|
|
في هذا الدرس، سنستكشف المجال المثير لأخلاقيات البيانات - بدءًا من المفاهيم الأساسية والتحديات، إلى دراسات الحالة والمفاهيم التطبيقية للذكاء الاصطناعي مثل الحوكمة - التي تساعد في إنشاء ثقافة أخلاقية في الفرق والمؤسسات التي تعمل مع البيانات والذكاء الاصطناعي.
|
|
|
|
|
|
## [اختبار ما قبل المحاضرة](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
|
|
|
|
|
|
## التعريفات الأساسية
|
|
|
|
|
|
لنبدأ بفهم المصطلحات الأساسية.
|
|
|
|
|
|
كلمة "أخلاقيات" تأتي من [الكلمة اليونانية "ethikos"](https://en.wikipedia.org/wiki/Ethics) (وجذرها "ethos") التي تعني _الطبيعة الأخلاقية أو الشخصية_.
|
|
|
|
|
|
**الأخلاقيات** تتعلق بالقيم المشتركة والمبادئ الأخلاقية التي تحكم سلوكنا في المجتمع. الأخلاقيات لا تستند إلى القوانين بل إلى الأعراف المقبولة عمومًا لما هو "صحيح مقابل خاطئ". ومع ذلك، يمكن أن تؤثر الاعتبارات الأخلاقية على مبادرات الحوكمة المؤسسية واللوائح الحكومية التي تخلق المزيد من الحوافز للامتثال.
|
|
|
|
|
|
**أخلاقيات البيانات** هي [فرع جديد من الأخلاقيات](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) يدرس ويقيّم المشكلات الأخلاقية المتعلقة بـ _البيانات والخوارزميات والممارسات المرتبطة بها_. هنا، يركز **"البيانات"** على الإجراءات المتعلقة بإنشاء البيانات وتسجيلها وتنظيمها ومعالجتها ونشرها ومشاركتها واستخدامها، بينما تركز **"الخوارزميات"** على الذكاء الاصطناعي والوكلاء والتعلم الآلي والروبوتات، وتركز **"الممارسات"** على موضوعات مثل الابتكار المسؤول، البرمجة، القرصنة، ومدونات الأخلاقيات.
|
|
|
|
|
|
**الأخلاقيات التطبيقية** هي [التطبيق العملي للاعتبارات الأخلاقية](https://en.wikipedia.org/wiki/Applied_ethics). إنها عملية التحقيق النشط في القضايا الأخلاقية في سياق _الإجراءات والمنتجات والعمليات الواقعية_، واتخاذ التدابير التصحيحية لضمان بقائها متوافقة مع قيمنا الأخلاقية المحددة.
|
|
|
|
|
|
**ثقافة الأخلاقيات** تتعلق بـ [_تفعيل_ الأخلاقيات التطبيقية](https://hbr.org/2019/05/how-to-design-an-ethical-organization) لضمان تبني المبادئ والممارسات الأخلاقية بطريقة متسقة وقابلة للتوسع عبر المؤسسة بأكملها. تحدد ثقافات الأخلاقيات الناجحة المبادئ الأخلاقية على مستوى المؤسسة، وتوفر حوافز ذات مغزى للامتثال، وتعزز الأعراف الأخلاقية من خلال تشجيع وتضخيم السلوكيات المرغوبة على كل مستوى من مستويات المؤسسة.
|
|
|
|
|
|
## مفاهيم الأخلاقيات
|
|
|
|
|
|
في هذا القسم، سنناقش مفاهيم مثل **القيم المشتركة** (المبادئ) و**التحديات الأخلاقية** (المشكلات) لأخلاقيات البيانات - وسنستكشف **دراسات حالة** تساعدك على فهم هذه المفاهيم في سياقات واقعية.
|
|
|
|
|
|
### 1. مبادئ الأخلاقيات
|
|
|
|
|
|
تبدأ كل استراتيجية لأخلاقيات البيانات بتحديد _المبادئ الأخلاقية_ - وهي "القيم المشتركة" التي تصف السلوكيات المقبولة، وتوجه الإجراءات المتوافقة، في مشاريع البيانات والذكاء الاصطناعي الخاصة بنا. يمكنك تحديد هذه المبادئ على مستوى الفرد أو الفريق. ومع ذلك، فإن معظم المؤسسات الكبيرة تحددها في بيان مهمة أو إطار عمل _للذكاء الاصطناعي الأخلاقي_ يتم تحديده على مستوى المؤسسة ويتم تطبيقه بشكل متسق عبر جميع الفرق.
|
|
|
|
|
|
**مثال:** بيان مهمة [الذكاء الاصطناعي المسؤول](https://www.microsoft.com/en-us/ai/responsible-ai) من مايكروسوفت ينص على: _"نحن ملتزمون بتطوير الذكاء الاصطناعي مدفوعًا بمبادئ أخلاقية تضع الناس في المقام الأول"_ - مع تحديد 6 مبادئ أخلاقية في الإطار أدناه:
|
|
|
|
|
|

|
|
|
|
|
|
دعونا نستعرض هذه المبادئ بإيجاز. _الشفافية_ و_المساءلة_ هما القيم الأساسية التي تُبنى عليها المبادئ الأخرى - لذا دعونا نبدأ بهما:
|
|
|
|
|
|
* [**المساءلة**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) تجعل الممارسين _مسؤولين_ عن عملياتهم في البيانات والذكاء الاصطناعي، والامتثال لهذه المبادئ الأخلاقية.
|
|
|
* [**الشفافية**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) تضمن أن تكون الإجراءات المتعلقة بالبيانات والذكاء الاصطناعي _مفهومة_ (قابلة للتفسير) للمستخدمين، مع شرح ما يحدث ولماذا.
|
|
|
* [**الإنصاف**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - يركز على ضمان أن يعامل الذكاء الاصطناعي _جميع الأشخاص_ بإنصاف، ومعالجة أي تحيزات اجتماعية أو تقنية ضمن البيانات والأنظمة.
|
|
|
* [**الموثوقية والسلامة**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تضمن أن يتصرف الذكاء الاصطناعي _بثبات_ وفقًا للقيم المحددة، مع تقليل الأضرار المحتملة أو العواقب غير المقصودة.
|
|
|
* [**الخصوصية والأمان**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تتعلق بفهم مسار البيانات، وتوفير _الخصوصية والحماية_ ذات الصلة للمستخدمين.
|
|
|
* [**الشمولية**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - تتعلق بتصميم حلول الذكاء الاصطناعي بنية واضحة، وتكييفها لتلبية _مجموعة واسعة من الاحتياجات_ والقدرات البشرية.
|
|
|
|
|
|
> 🚨 فكر في ما يمكن أن يكون بيان مهمتك لأخلاقيات البيانات. استكشف أطر عمل الذكاء الاصطناعي الأخلاقي من مؤسسات أخرى - هنا أمثلة من [IBM](https://www.ibm.com/cloud/learn/ai-ethics)، [Google](https://ai.google/principles)، و[Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). ما هي القيم المشتركة التي لديهم؟ كيف ترتبط هذه المبادئ بمنتج الذكاء الاصطناعي أو الصناعة التي يعملون فيها؟
|
|
|
|
|
|
### 2. التحديات الأخلاقية
|
|
|
|
|
|
بمجرد تحديد المبادئ الأخلاقية، تكون الخطوة التالية هي تقييم أفعالنا المتعلقة بالبيانات والذكاء الاصطناعي لمعرفة ما إذا كانت تتماشى مع تلك القيم المشتركة. فكر في أفعالك في فئتين: _جمع البيانات_ و_تصميم الخوارزميات_.
|
|
|
|
|
|
فيما يتعلق بجمع البيانات، قد تتضمن الإجراءات **البيانات الشخصية** أو المعلومات الشخصية القابلة للتحديد (PII) للأفراد. يشمل ذلك [عناصر متنوعة من البيانات غير الشخصية](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) التي _تجمع_ لتحديد هوية الفرد. قد تتعلق التحديات الأخلاقية بـ _خصوصية البيانات_، _ملكية البيانات_، وموضوعات ذات صلة مثل _الموافقة المستنيرة_ و_حقوق الملكية الفكرية_ للمستخدمين.
|
|
|
|
|
|
أما بالنسبة لتصميم الخوارزميات، فستتضمن الإجراءات جمع وتنظيم **مجموعات البيانات**، ثم استخدامها لتدريب ونشر **نماذج البيانات** التي تتنبأ بالنتائج أو تؤتمت القرارات في سياقات واقعية. قد تنشأ التحديات الأخلاقية من _التحيز في مجموعات البيانات_، مشكلات _جودة البيانات_، _عدم الإنصاف_، و_سوء التمثيل_ في الخوارزميات - بما في ذلك بعض القضايا النظامية.
|
|
|
|
|
|
في كلا الحالتين، تسلط التحديات الأخلاقية الضوء على المناطق التي قد تتعارض فيها أفعالنا مع قيمنا المشتركة. للكشف عن هذه المخاوف أو التخفيف منها أو تقليلها أو القضاء عليها، نحتاج إلى طرح أسئلة أخلاقية "نعم/لا" تتعلق بأفعالنا، ثم اتخاذ الإجراءات التصحيحية حسب الحاجة. دعونا نلقي نظرة على بعض التحديات الأخلاقية والأسئلة الأخلاقية التي تثيرها:
|
|
|
|
|
|
#### 2.1 ملكية البيانات
|
|
|
|
|
|
غالبًا ما يتضمن جمع البيانات بيانات شخصية يمكن أن تحدد هوية الأفراد. [ملكية البيانات](https://permission.io/blog/data-ownership) تتعلق بـ _التحكم_ و[_حقوق المستخدمين_](https://permission.io/blog/data-ownership) المتعلقة بإنشاء البيانات ومعالجتها ونشرها.
|
|
|
|
|
|
الأسئلة الأخلاقية التي نحتاج إلى طرحها هي:
|
|
|
* من يملك البيانات؟ (المستخدم أم المؤسسة)
|
|
|
* ما هي حقوق الأفراد المتعلقة بالبيانات؟ (مثل: الوصول، الحذف، النقل)
|
|
|
* ما هي حقوق المؤسسات؟ (مثل: تصحيح المراجعات الضارة)
|
|
|
|
|
|
#### 2.2 الموافقة المستنيرة
|
|
|
|
|
|
[الموافقة المستنيرة](https://legaldictionary.net/informed-consent/) تعني موافقة المستخدمين على إجراء معين (مثل جمع البيانات) مع _فهم كامل_ للحقائق ذات الصلة بما في ذلك الغرض، والمخاطر المحتملة، والبدائل.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل منح المستخدم (صاحب البيانات) الإذن بجمع البيانات واستخدامها؟
|
|
|
* هل فهم المستخدم الغرض من جمع تلك البيانات؟
|
|
|
* هل فهم المستخدم المخاطر المحتملة من مشاركته؟
|
|
|
|
|
|
#### 2.3 الملكية الفكرية
|
|
|
|
|
|
[الملكية الفكرية](https://en.wikipedia.org/wiki/Intellectual_property) تشير إلى الإبداعات غير الملموسة الناتجة عن المبادرة البشرية، والتي قد _تكون لها قيمة اقتصادية_ للأفراد أو الشركات.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل تحتوي البيانات المجمعة على قيمة اقتصادية للمستخدم أو الشركة؟
|
|
|
* هل يمتلك **المستخدم** حقوق ملكية فكرية هنا؟
|
|
|
* هل تمتلك **المؤسسة** حقوق ملكية فكرية هنا؟
|
|
|
* إذا كانت هذه الحقوق موجودة، كيف نحميها؟
|
|
|
|
|
|
#### 2.4 خصوصية البيانات
|
|
|
|
|
|
[خصوصية البيانات](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) أو خصوصية المعلومات تشير إلى الحفاظ على خصوصية المستخدم وحماية هويته فيما يتعلق بالمعلومات الشخصية القابلة للتحديد.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل بيانات المستخدمين (الشخصية) محمية من الاختراقات والتسريبات؟
|
|
|
* هل بيانات المستخدمين متاحة فقط للمستخدمين والسياقات المصرح بها؟
|
|
|
* هل يتم الحفاظ على إخفاء هوية المستخدم عند مشاركة البيانات أو نشرها؟
|
|
|
* هل يمكن إزالة هوية المستخدم من مجموعات البيانات المجهولة؟
|
|
|
|
|
|
#### 2.5 الحق في النسيان
|
|
|
|
|
|
[الحق في النسيان](https://en.wikipedia.org/wiki/Right_to_be_forgotten) أو [الحق في الحذف](https://www.gdpreu.org/right-to-be-forgotten/) يوفر حماية إضافية للبيانات الشخصية للمستخدمين. تحديدًا، يمنح المستخدمين الحق في طلب حذف أو إزالة البيانات الشخصية من عمليات البحث على الإنترنت ومواقع أخرى، _في ظروف معينة_ - مما يسمح لهم ببدء جديد دون أن تُحتسب أفعالهم السابقة ضدهم.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل يسمح النظام للأفراد بطلب الحذف؟
|
|
|
* هل يجب أن يؤدي سحب موافقة المستخدم إلى الحذف التلقائي؟
|
|
|
* هل تم جمع البيانات دون موافقة أو بوسائل غير قانونية؟
|
|
|
* هل نحن متوافقون مع اللوائح الحكومية لخصوصية البيانات؟
|
|
|
|
|
|
#### 2.6 التحيز في مجموعات البيانات
|
|
|
|
|
|
[التحيز في مجموعات البيانات](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) يتعلق باختيار مجموعة بيانات _غير ممثلة_ لتطوير الخوارزميات، مما يخلق احتمالية لعدم الإنصاف في نتائج المخرجات لمجموعات متنوعة. تشمل أنواع التحيز التحيز في الاختيار أو العينة، التحيز التطوعي، والتحيز في الأدوات.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل قمنا بتجنيد مجموعة ممثلة من الأفراد؟
|
|
|
* هل قمنا باختبار مجموعات البيانات التي جمعناها أو نظمناها للتحقق من وجود تحيزات؟
|
|
|
* هل يمكننا التخفيف من التحيزات المكتشفة أو إزالتها؟
|
|
|
|
|
|
#### 2.7 جودة البيانات
|
|
|
|
|
|
[جودة البيانات](https://lakefs.io/data-quality-testing/) تتعلق بصحة مجموعة البيانات المستخدمة لتطوير الخوارزميات، والتحقق مما إذا كانت الميزات والسجلات تلبي متطلبات الدقة والاتساق اللازمة لغرض الذكاء الاصطناعي الخاص بنا.
|
|
|
|
|
|
الأسئلة التي يجب استكشافها هنا هي:
|
|
|
* هل قمنا بجمع ميزات _صحيحة_ لحالة الاستخدام الخاصة بنا؟
|
|
|
* هل تم جمع البيانات _بشكل متسق_ عبر مصادر بيانات متنوعة؟
|
|
|
* هل مجموعة البيانات _كاملة_ لظروف أو سيناريوهات متنوعة؟
|
|
|
* هل تم جمع المعلومات _بدقة_ لتعكس الواقع؟
|
|
|
|
|
|
#### 2.8 الإنصاف في الخوارزميات
|
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) يتحقق مما إذا كان تصميم الخوارزمية يميز بشكل منهجي ضد مجموعات معينة من الأشخاص، مما يؤدي إلى [أضرار محتملة](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) في _التخصيص_ (حيث يتم حرمان أو حجب الموارد عن تلك المجموعة) و_جودة الخدمة_ (حيث تكون دقة الذكاء الاصطناعي أقل لبعض المجموعات مقارنة بغيرها).
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا:
|
|
|
* هل قمنا بتقييم دقة النموذج لمجموعات وظروف متنوعة؟
|
|
|
* هل قمنا بفحص النظام بحثًا عن أضرار محتملة (مثل التنميط)؟
|
|
|
* هل يمكننا تعديل البيانات أو إعادة تدريب النماذج لتخفيف الأضرار المحددة؟
|
|
|
|
|
|
استكشف موارد مثل [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) لمعرفة المزيد.
|
|
|
|
|
|
#### 2.9 التزييف
|
|
|
|
|
|
[تزييف البيانات](https://www.sciencedirect.com/topics/computer-science/misrepresentation) يتعلق بالسؤال عما إذا كنا ننقل رؤى من بيانات تم الإبلاغ عنها بصدق بطريقة خادعة لدعم رواية معينة.
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا:
|
|
|
* هل نقوم بالإبلاغ عن بيانات غير مكتملة أو غير دقيقة؟
|
|
|
* هل نقوم بتصور البيانات بطريقة تؤدي إلى استنتاجات مضللة؟
|
|
|
* هل نستخدم تقنيات إحصائية انتقائية للتلاعب بالنتائج؟
|
|
|
* هل هناك تفسيرات بديلة قد تقدم استنتاجًا مختلفًا؟
|
|
|
|
|
|
#### 2.10 حرية الاختيار
|
|
|
[وهم حرية الاختيار](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) يحدث عندما تستخدم "هندسة الاختيار" في الأنظمة خوارزميات اتخاذ القرار لدفع الناس نحو اتخاذ نتيجة مفضلة بينما يبدو أنهم يمتلكون خيارات وتحكمًا. هذه [الأنماط المظلمة](https://www.darkpatterns.org/) يمكن أن تسبب أضرارًا اجتماعية واقتصادية للمستخدمين. نظرًا لأن قرارات المستخدم تؤثر على ملفات السلوك، فإن هذه الإجراءات قد تدفع خيارات مستقبلية يمكن أن تضخم أو تمدد تأثير هذه الأضرار.
|
|
|
|
|
|
الأسئلة التي يمكن استكشافها هنا:
|
|
|
* هل فهم المستخدم تبعات اتخاذ هذا القرار؟
|
|
|
* هل كان المستخدم على علم بالخيارات (البديلة) ومزايا وعيوب كل منها؟
|
|
|
* هل يمكن للمستخدم عكس قرار تلقائي أو متأثر لاحقًا؟
|
|
|
|
|
|
### 3. دراسات حالة
|
|
|
|
|
|
لإدخال هذه التحديات الأخلاقية في سياقات العالم الحقيقي، يساعد النظر في دراسات حالة تسلط الضوء على الأضرار والعواقب المحتملة للأفراد والمجتمع عندما يتم تجاهل هذه الانتهاكات الأخلاقية.
|
|
|
|
|
|
إليك بعض الأمثلة:
|
|
|
|
|
|
| التحدي الأخلاقي | دراسة الحالة |
|
|
|
|--- |--- |
|
|
|
| **الموافقة المستنيرة** | 1972 - [دراسة مرض الزهري في توسكيجي](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - الرجال الأمريكيون من أصل أفريقي الذين شاركوا في الدراسة وعدوا برعاية طبية مجانية _لكن تم خداعهم_ من قبل الباحثين الذين لم يبلغوا المشاركين بتشخيصهم أو بتوفر العلاج. مات العديد من المشاركين وتأثر شركاؤهم أو أطفالهم؛ استمرت الدراسة لمدة 40 عامًا. |
|
|
|
| **خصوصية البيانات** | 2007 - [جائزة بيانات نتفليكس](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) قدمت للباحثين _10 ملايين تقييم أفلام مجهولة من 50 ألف عميل_ لتحسين خوارزميات التوصية. ومع ذلك، تمكن الباحثون من ربط البيانات المجهولة ببيانات شخصية في _مجموعات بيانات خارجية_ (مثل تعليقات IMDb) - مما أدى فعليًا إلى "إزالة إخفاء الهوية" لبعض مشتركي نتفليكس.|
|
|
|
| **تحيز الجمع** | 2013 - مدينة بوسطن [طورت تطبيق Street Bump](https://www.boston.gov/transportation/street-bump)، وهو تطبيق يسمح للمواطنين بالإبلاغ عن الحفر، مما يوفر للمدينة بيانات أفضل عن الطرق لإيجاد وإصلاح المشكلات. ومع ذلك، [الأشخاص في المجموعات ذات الدخل المنخفض لديهم وصول أقل إلى السيارات والهواتف](https://hbr.org/2013/04/the-hidden-biases-in-big-data)، مما يجعل مشكلات الطرق الخاصة بهم غير مرئية في هذا التطبيق. عمل المطورون مع الأكاديميين لمعالجة _قضايا الوصول العادل والفجوات الرقمية_ لتحقيق العدالة. |
|
|
|
| **عدالة الخوارزميات** | 2018 - دراسة MIT [Gender Shades Study](http://gendershades.org/overview.html) قيمت دقة منتجات تصنيف الجنس بالذكاء الاصطناعي، وكشفت عن فجوات في الدقة للنساء والأشخاص ذوي البشرة الملونة. في [بطاقة Apple لعام 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) بدا أنها تقدم ائتمانًا أقل للنساء مقارنة بالرجال. كلاهما يوضح قضايا التحيز الخوارزمي الذي يؤدي إلى أضرار اجتماعية واقتصادية.|
|
|
|
| **تزييف البيانات** | 2020 - [وزارة الصحة في جورجيا أصدرت رسوم بيانية عن حالات COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) التي بدت وكأنها تضلل المواطنين بشأن اتجاهات الحالات المؤكدة باستخدام ترتيب غير زمني على المحور السيني. هذا يوضح التزييف من خلال حيل التصور. |
|
|
|
| **وهم حرية الاختيار** | 2020 - تطبيق التعلم [ABCmouse دفع 10 ملايين دولار لتسوية شكوى FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) حيث تم حبس الآباء في دفع اشتراكات لا يمكنهم إلغاؤها. هذا يوضح الأنماط المظلمة في هندسة الاختيار، حيث تم دفع المستخدمين نحو خيارات قد تكون ضارة. |
|
|
|
| **خصوصية البيانات وحقوق المستخدم** | 2021 - [اختراق بيانات فيسبوك](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) كشف بيانات 530 مليون مستخدم، مما أدى إلى تسوية بقيمة 5 مليارات دولار مع FTC. ومع ذلك، رفضت الشركة إخطار المستخدمين بالاختراق، مما ينتهك حقوق المستخدمين حول شفافية البيانات والوصول إليها. |
|
|
|
|
|
|
هل تريد استكشاف المزيد من دراسات الحالة؟ تحقق من هذه الموارد:
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - معضلات أخلاقية عبر صناعات متنوعة.
|
|
|
* [دورة أخلاقيات علوم البيانات](https://www.coursera.org/learn/data-science-ethics#syllabus) - دراسات حالة بارزة مستكشفة.
|
|
|
* [أين حدثت الأخطاء](https://deon.drivendata.org/examples/) - قائمة Deon مع أمثلة.
|
|
|
|
|
|
> 🚨 فكر في دراسات الحالة التي رأيتها - هل واجهت أو تأثرت بتحدٍ أخلاقي مشابه في حياتك؟ هل يمكنك التفكير في دراسة حالة أخرى توضح أحد التحديات الأخلاقية التي ناقشناها في هذا القسم؟
|
|
|
|
|
|
## الأخلاقيات التطبيقية
|
|
|
|
|
|
لقد تحدثنا عن مفاهيم الأخلاقيات، التحديات، ودراسات الحالة في سياقات العالم الحقيقي. ولكن كيف نبدأ في _تطبيق_ المبادئ والممارسات الأخلاقية في مشاريعنا؟ وكيف يمكننا _تشغيل_ هذه الممارسات لتحقيق حوكمة أفضل؟ دعونا نستكشف بعض الحلول الواقعية:
|
|
|
|
|
|
### 1. الأكواد المهنية
|
|
|
|
|
|
الأكواد المهنية تقدم خيارًا للمنظمات لـ "تحفيز" الأعضاء لدعم مبادئها الأخلاقية وبيان مهمتها. الأكواد هي _إرشادات أخلاقية_ للسلوك المهني، تساعد الموظفين أو الأعضاء على اتخاذ قرارات تتماشى مع مبادئ المنظمة. هي جيدة بقدر الامتثال الطوعي من الأعضاء؛ ومع ذلك، تقدم العديد من المنظمات مكافآت وعقوبات إضافية لتحفيز الامتثال.
|
|
|
|
|
|
أمثلة تشمل:
|
|
|
|
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) كود الأخلاقيات
|
|
|
* [جمعية علوم البيانات](http://datascienceassn.org/code-of-conduct.html) كود السلوك (تم إنشاؤه عام 2013)
|
|
|
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (منذ عام 1993)
|
|
|
|
|
|
> 🚨 هل تنتمي إلى منظمة مهنية للهندسة أو علوم البيانات؟ استكشف موقعهم لمعرفة ما إذا كانوا يحددون كودًا مهنيًا للأخلاقيات. ماذا يقول هذا عن مبادئهم الأخلاقية؟ كيف يحفزون الأعضاء على اتباع الكود؟
|
|
|
|
|
|
### 2. قوائم التحقق الأخلاقية
|
|
|
|
|
|
بينما تحدد الأكواد المهنية السلوك الأخلاقي المطلوب من الممارسين، فإنها [لها قيود معروفة](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) في التنفيذ، خاصة في المشاريع واسعة النطاق. بدلاً من ذلك، العديد من خبراء علوم البيانات [يدعون إلى قوائم التحقق](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md)، التي يمكنها **ربط المبادئ بالممارسات** بطرق أكثر تحديدًا وقابلة للتنفيذ.
|
|
|
|
|
|
تحول قوائم التحقق الأسئلة إلى مهام "نعم/لا" يمكن تشغيلها، مما يسمح بتتبعها كجزء من سير عمل إطلاق المنتجات القياسي.
|
|
|
|
|
|
أمثلة تشمل:
|
|
|
* [Deon](https://deon.drivendata.org/) - قائمة تحقق عامة لأخلاقيات البيانات تم إنشاؤها من [توصيات الصناعة](https://deon.drivendata.org/#checklist-citations) مع أداة سطر أوامر للتكامل السهل.
|
|
|
* [قائمة تحقق تدقيق الخصوصية](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - تقدم إرشادات عامة لممارسات التعامل مع المعلومات من منظور التعرض القانوني والاجتماعي.
|
|
|
* [قائمة تحقق عدالة الذكاء الاصطناعي](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - تم إنشاؤها بواسطة ممارسي الذكاء الاصطناعي لدعم اعتماد ودمج فحوصات العدالة في دورات تطوير الذكاء الاصطناعي.
|
|
|
* [22 سؤالًا للأخلاقيات في البيانات والذكاء الاصطناعي](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - إطار عمل أكثر انفتاحًا، منظم للاستكشاف الأولي للقضايا الأخلاقية في التصميم، التنفيذ، والسياقات التنظيمية.
|
|
|
|
|
|
### 3. تنظيم الأخلاقيات
|
|
|
|
|
|
الأخلاقيات تتعلق بتحديد القيم المشتركة وفعل الشيء الصحيح _طوعًا_. **الامتثال** يتعلق بـ _اتباع القانون_ إذا تم تحديده. **الحوكمة** تغطي بشكل عام جميع الطرق التي تعمل بها المنظمات لفرض المبادئ الأخلاقية والامتثال للقوانين المعمول بها.
|
|
|
|
|
|
اليوم، تأخذ الحوكمة شكلين داخل المنظمات. أولاً، يتعلق بتحديد مبادئ **الذكاء الاصطناعي الأخلاقي** وإنشاء ممارسات لتشغيل اعتمادها عبر جميع المشاريع المتعلقة بالذكاء الاصطناعي في المنظمة. ثانيًا، يتعلق بالامتثال لجميع **لوائح حماية البيانات** التي تفرضها الحكومة للمناطق التي تعمل فيها.
|
|
|
|
|
|
أمثلة على لوائح حماية البيانات والخصوصية:
|
|
|
|
|
|
* `1974`, [قانون الخصوصية الأمريكي](https://www.justice.gov/opcl/privacy-act-1974) - ينظم جمع واستخدام وكشف المعلومات الشخصية من قبل _الحكومة الفيدرالية_.
|
|
|
* `1996`, [قانون التأمين الصحي الأمريكي (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - يحمي البيانات الصحية الشخصية.
|
|
|
* `1998`, [قانون حماية خصوصية الأطفال عبر الإنترنت الأمريكي (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - يحمي خصوصية بيانات الأطفال تحت سن 13.
|
|
|
* `2018`, [اللائحة العامة لحماية البيانات (GDPR)](https://gdpr-info.eu/) - توفر حقوق المستخدم، حماية البيانات، والخصوصية.
|
|
|
* `2018`, [قانون خصوصية المستهلك في كاليفورنيا (CCPA)](https://www.oag.ca.gov/privacy/ccpa) يمنح المستهلكين المزيد من _الحقوق_ على بياناتهم الشخصية.
|
|
|
* `2021`, قانون [حماية المعلومات الشخصية في الصين](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) الذي تم تمريره مؤخرًا، مما يخلق واحدة من أقوى لوائح خصوصية البيانات عبر الإنترنت في العالم.
|
|
|
|
|
|
> 🚨 الاتحاد الأوروبي حدد اللائحة العامة لحماية البيانات (GDPR) التي تظل واحدة من أكثر لوائح خصوصية البيانات تأثيرًا اليوم. هل تعلم أنها تحدد أيضًا [8 حقوق للمستخدم](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) لحماية خصوصية المواطنين الرقمية وبياناتهم الشخصية؟ تعرف على ما هي هذه الحقوق ولماذا هي مهمة.
|
|
|
|
|
|
### 4. ثقافة الأخلاقيات
|
|
|
|
|
|
لاحظ أن هناك فجوة غير ملموسة بين _الامتثال_ (القيام بما يكفي لتلبية "نص القانون") ومعالجة [القضايا النظامية](https://www.coursera.org/learn/data-science-ethics/home/week/4) (مثل التصلب، عدم التماثل المعلوماتي، وعدم العدالة التوزيعية) التي يمكن أن تسرع من تسليح الذكاء الاصطناعي.
|
|
|
|
|
|
يتطلب الأخير [نهجًا تعاونيًا لتحديد ثقافات الأخلاقيات](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) التي تبني روابط عاطفية وقيمًا مشتركة متسقة _عبر المنظمات_ في الصناعة. هذا يدعو إلى المزيد من [ثقافات أخلاقيات البيانات الرسمية](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) في المنظمات - مما يسمح _لأي شخص_ بـ [سحب حبل أندون](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (لإثارة مخاوف أخلاقية مبكرًا في العملية) وجعل _التقييمات الأخلاقية_ (مثل التوظيف) معيارًا أساسيًا لتشكيل الفرق في مشاريع الذكاء الاصطناعي.
|
|
|
|
|
|
---
|
|
|
## [اختبار ما بعد المحاضرة](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
|
|
|
## المراجعة والدراسة الذاتية
|
|
|
|
|
|
الدورات والكتب تساعد في فهم مفاهيم الأخلاقيات الأساسية والتحديات، بينما تساعد دراسات الحالة والأدوات في ممارسات الأخلاقيات التطبيقية في سياقات العالم الحقيقي. إليك بعض الموارد للبدء.
|
|
|
|
|
|
* [تعلم الآلة للمبتدئين](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - درس عن العدالة، من مايكروسوفت.
|
|
|
* [مبادئ الذكاء الاصطناعي المسؤول](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - مسار تعليمي مجاني من Microsoft Learn.
|
|
|
* [الأخلاقيات وعلوم البيانات](https://resources.oreilly.com/examples/0636920203964) - كتاب إلكتروني من O'Reilly (بقلم م. لوكيديس، هـ. ماسون وآخرون).
|
|
|
* [أخلاقيات علوم البيانات](https://www.coursera.org/learn/data-science-ethics#syllabus) - دورة تعليمية عبر الإنترنت من جامعة ميشيغان.
|
|
|
* [الأخلاقيات غير المغلفة](https://ethicsunwrapped.utexas.edu/case-studies) - دراسات حالة من جامعة تكساس.
|
|
|
|
|
|
# الواجب
|
|
|
|
|
|
[كتابة دراسة حالة عن أخلاقيات البيانات](assignment.md)
|
|
|
|
|
|
---
|
|
|
|
|
|
**إخلاء المسؤولية**:
|
|
|
تم ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي [Co-op Translator](https://github.com/Azure/co-op-translator). بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو معلومات غير دقيقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر الموثوق. للحصول على معلومات حاسمة، يُوصى بالاستعانة بترجمة بشرية احترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة تنشأ عن استخدام هذه الترجمة. |