|
4 weeks ago | |
---|---|---|
.. | ||
README.md | 4 weeks ago | |
assignment.md | 4 weeks ago |
README.md
ڈیٹا اخلاقیات کا تعارف
![]() |
---|
ڈیٹا سائنس اخلاقیات - @nitya کی اسکیچ نوٹ |
ہم سب ایک ایسے دنیا میں رہتے ہیں جو مکمل طور پر ڈیٹا پر مبنی ہو چکی ہے۔
مارکیٹ کے رجحانات بتاتے ہیں کہ 2022 تک، ہر تین میں سے ایک بڑی تنظیم اپنا ڈیٹا آن لائن مارکیٹ پلیسز اور ایکسچینجز کے ذریعے خریدے گی اور بیچے گی۔ بطور ایپ ڈویلپرز، ہمارے لیے ڈیٹا پر مبنی بصیرتوں اور الگورتھم پر مبنی خودکار نظاموں کو روزمرہ کے صارف تجربات میں شامل کرنا آسان اور سستا ہو جائے گا۔ لیکن جیسے جیسے AI عام ہوتا جا رہا ہے، ہمیں یہ بھی سمجھنا ہوگا کہ بڑے پیمانے پر ان الگورتھمز کے ہتھیار بننے سے کیا ممکنہ نقصانات ہو سکتے ہیں۔
رجحانات یہ بھی ظاہر کرتے ہیں کہ ہم 2025 تک 180 زیٹابائٹس سے زیادہ ڈیٹا تخلیق اور استعمال کریں گے۔ بطور ڈیٹا سائنسدان، یہ ہمیں ذاتی ڈیٹا تک بے مثال رسائی فراہم کرتا ہے۔ اس کا مطلب یہ ہے کہ ہم صارفین کے رویوں کے پروفائل بنا سکتے ہیں اور فیصلہ سازی پر اثر ڈال سکتے ہیں، جس سے ایک آزاد انتخاب کا دھوکہ پیدا ہو سکتا ہے، جبکہ ممکنہ طور پر صارفین کو ان نتائج کی طرف دھکیل سکتے ہیں جو ہم چاہتے ہیں۔ یہ ڈیٹا کی پرائیویسی اور صارف کے تحفظات پر وسیع تر سوالات بھی اٹھاتا ہے۔
ڈیٹا اخلاقیات اب ڈیٹا سائنس اور انجینئرنگ کے لیے ضروری حفاظتی اصول بن چکے ہیں، جو ہمیں ڈیٹا پر مبنی اقدامات سے ممکنہ نقصانات اور غیر ارادی نتائج کو کم کرنے میں مدد دیتے ہیں۔ گارٹنر ہائپ سائیکل برائے AI ڈیجیٹل اخلاقیات، ذمہ دار AI، اور AI گورننس میں رجحانات کو بڑے میگا رجحانات کے کلیدی ڈرائیورز کے طور پر شناخت کرتا ہے، جیسے کہ AI کی جمہوریت سازی اور صنعت کاری۔
اس سبق میں، ہم ڈیٹا اخلاقیات کے دلچسپ میدان کو دریافت کریں گے - بنیادی تصورات اور چیلنجز سے لے کر کیس اسٹڈیز اور عملی AI تصورات جیسے گورننس تک - جو ان ٹیموں اور تنظیموں میں اخلاقیات کی ثقافت قائم کرنے میں مدد دیتے ہیں جو ڈیٹا اور AI کے ساتھ کام کرتی ہیں۔
لیکچر سے پہلے کا کوئز 🎯
بنیادی تعریفیں
آئیے بنیادی اصطلاحات کو سمجھنے سے شروع کرتے ہیں۔
"اخلاقیات" کا لفظ یونانی لفظ "ethikos" (اور اس کی جڑ "ethos") سے آیا ہے، جس کا مطلب ہے کردار یا اخلاقی فطرت۔
اخلاقیات ان مشترکہ اقدار اور اخلاقی اصولوں کے بارے میں ہیں جو معاشرے میں ہمارے رویے کو کنٹرول کرتے ہیں۔ اخلاقیات قوانین پر مبنی نہیں ہیں بلکہ اس بات پر مبنی ہیں کہ "صحیح اور غلط" کے بارے میں کیا وسیع پیمانے پر قبول کیا جاتا ہے۔ تاہم، اخلاقی غور و فکر کارپوریٹ گورننس کے اقدامات اور حکومتی ضوابط کو متاثر کر سکتے ہیں جو تعمیل کے لیے مزید ترغیبات پیدا کرتے ہیں۔
ڈیٹا اخلاقیات اخلاقیات کی ایک نئی شاخ ہے جو "ڈیٹا، الگورتھمز اور متعلقہ طریقوں" سے متعلق اخلاقی مسائل کا مطالعہ اور جائزہ لیتی ہے۔ یہاں، "ڈیٹا" ان اعمال پر مرکوز ہے جو تخلیق، ریکارڈنگ، کیوریشن، پروسیسنگ، تقسیم، اشتراک، اور استعمال سے متعلق ہیں، "الگورتھمز" AI، ایجنٹس، مشین لرننگ، اور روبوٹس پر مرکوز ہیں، اور "طریقے" ذمہ دارانہ جدت، پروگرامنگ، ہیکنگ، اور اخلاقیات کے ضابطوں جیسے موضوعات پر مرکوز ہیں۔
عملی اخلاقیات اخلاقی غور و فکر کے عملی اطلاق کا نام ہے۔ یہ حقیقی دنیا کے اعمال، مصنوعات، اور عمل کے سیاق و سباق میں اخلاقی مسائل کی فعال طور پر تحقیق کرنے اور ان کو درست کرنے کے اقدامات کرنے کا عمل ہے تاکہ یہ یقینی بنایا جا سکے کہ یہ ہمارے بیان کردہ اخلاقی اقدار کے مطابق رہیں۔
اخلاقیات کی ثقافت عملی اخلاقیات کو عملی جامہ پہنانے کے بارے میں ہے تاکہ یہ یقینی بنایا جا سکے کہ ہمارے اخلاقی اصول اور طریقے پوری تنظیم میں مستقل اور قابل پیمائش انداز میں اپنائے جائیں۔ کامیاب اخلاقی ثقافتیں تنظیمی سطح پر اخلاقی اصولوں کی وضاحت کرتی ہیں، تعمیل کے لیے بامعنی ترغیبات فراہم کرتی ہیں، اور ہر سطح پر مطلوبہ رویوں کو فروغ دے کر اخلاقی اصولوں کو تقویت دیتی ہیں۔
اخلاقیات کے تصورات
اس حصے میں، ہم مشترکہ اقدار (اصول) اور اخلاقی چیلنجز (مسائل) جیسے تصورات پر بات کریں گے اور کیس اسٹڈیز کا جائزہ لیں گے جو آپ کو حقیقی دنیا کے سیاق و سباق میں ان تصورات کو سمجھنے میں مدد دیتے ہیں۔
1. اخلاقی اصول
ہر ڈیٹا اخلاقیات کی حکمت عملی اخلاقی اصولوں کی وضاحت سے شروع ہوتی ہے - وہ "مشترکہ اقدار" جو قابل قبول رویوں کو بیان کرتی ہیں اور ہمارے ڈیٹا اور AI منصوبوں میں تعمیل کے اقدامات کی رہنمائی کرتی ہیں۔ آپ ان کی وضاحت انفرادی یا ٹیم کی سطح پر کر سکتے ہیں۔ تاہم، زیادہ تر بڑی تنظیمیں ان کی وضاحت ایک اخلاقی AI مشن بیان یا فریم ورک میں کرتی ہیں جو کارپوریٹ سطح پر بیان کیا جاتا ہے اور تمام ٹیموں میں مستقل طور پر نافذ کیا جاتا ہے۔
مثال: مائیکروسافٹ کا ذمہ دار AI مشن بیان کہتا ہے: "ہم AI کی ترقی کے لیے پرعزم ہیں جو اخلاقی اصولوں کے ذریعے لوگوں کو اولین ترجیح دیتا ہے" - جو نیچے دیے گئے فریم ورک میں 6 اخلاقی اصولوں کی نشاندہی کرتا ہے:
آئیے ان اصولوں کا مختصر جائزہ لیں۔ شفافیت اور جوابدہی بنیادی اقدار ہیں جن پر دیگر اصول تعمیر کیے گئے ہیں - تو آئیے یہاں سے شروع کرتے ہیں:
- جوابدہی پریکٹیشنرز کو ان کے ڈیٹا اور AI آپریشنز اور ان اخلاقی اصولوں کی تعمیل کے لیے ذمہ دار بناتی ہے۔
- شفافیت اس بات کو یقینی بناتی ہے کہ ڈیٹا اور AI کے اقدامات صارفین کے لیے سمجھے جانے کے قابل ہوں، فیصلوں کے پیچھے کیا اور کیوں کی وضاحت کرتے ہوئے۔
- منصفانہ رویہ - اس بات پر مرکوز ہے کہ AI تمام لوگوں کے ساتھ منصفانہ سلوک کرے، ڈیٹا اور نظام میں کسی بھی نظامی یا مضمر سماجی-تکنیکی تعصبات کو حل کرے۔
- قابل اعتماد اور حفاظت - اس بات کو یقینی بناتی ہے کہ AI مستقل طور پر بیان کردہ اقدار کے مطابق برتاؤ کرے، ممکنہ نقصانات یا غیر ارادی نتائج کو کم کرے۔
- پرائیویسی اور سیکیورٹی - ڈیٹا کے ماخذ کو سمجھنے اور صارفین کو ڈیٹا پرائیویسی اور متعلقہ تحفظات فراہم کرنے کے بارے میں ہے۔
- شمولیت - AI حل کو ارادے کے ساتھ ڈیزائن کرنے کے بارے میں ہے، انہیں وسیع انسانی ضروریات اور صلاحیتوں کو پورا کرنے کے لیے ڈھالنا۔
🚨 سوچیں کہ آپ کا ڈیٹا اخلاقیات کا مشن بیان کیا ہو سکتا ہے۔ دیگر تنظیموں کے اخلاقی AI فریم ورک کو دریافت کریں - یہاں IBM، Google، اور Facebook کی مثالیں ہیں۔ ان میں کون سی مشترکہ اقدار ہیں؟ یہ اصول ان کے AI پروڈکٹ یا صنعت سے کیسے متعلق ہیں؟
2. اخلاقی چیلنجز
جب ہم اخلاقی اصولوں کی وضاحت کر لیتے ہیں، تو اگلا قدم یہ ہے کہ ہم اپنے ڈیٹا اور AI کے اقدامات کا جائزہ لیں تاکہ یہ دیکھا جا سکے کہ آیا وہ ان مشترکہ اقدار کے مطابق ہیں۔ اپنے اقدامات کو دو زمروں میں سوچیں: ڈیٹا اکٹھا کرنا اور الگورتھم ڈیزائن۔
ڈیٹا اکٹھا کرنے کے ساتھ، اقدامات ممکنہ طور پر ذاتی ڈیٹا یا ذاتی طور پر قابل شناخت معلومات (PII) پر مشتمل ہوں گے جو زندہ افراد کی شناخت کر سکتی ہیں۔ اس میں غیر ذاتی ڈیٹا کی مختلف اشیاء شامل ہیں جو اجتماعی طور پر کسی فرد کی شناخت کرتی ہیں۔ اخلاقی چیلنجز ڈیٹا پرائیویسی، ڈیٹا کی ملکیت، اور متعلقہ موضوعات جیسے مطلع رضامندی اور صارفین کے لیے دانشورانہ املاک کے حقوق سے متعلق ہو سکتے ہیں۔
الگورتھم ڈیزائن کے ساتھ، اقدامات میں ڈیٹاسیٹس کو جمع کرنا اور ترتیب دینا شامل ہوگا، پھر ان کا استعمال کرتے ہوئے ڈیٹا ماڈلز کو تربیت دینا اور تعینات کرنا جو حقیقی دنیا کے سیاق و سباق میں نتائج کی پیش گوئی کرتے ہیں یا فیصلے خودکار بناتے ہیں۔ اخلاقی چیلنجز ڈیٹاسیٹ کے تعصب، ڈیٹا کے معیار کے مسائل، غیر منصفانہ رویہ، اور الگورتھمز میں غلط بیانی سے پیدا ہو سکتے ہیں - بشمول کچھ مسائل جو نظامی نوعیت کے ہیں۔
دونوں صورتوں میں، اخلاقی چیلنجز ان علاقوں کو اجاگر کرتے ہیں جہاں ہمارے اقدامات ہمارے مشترکہ اقدار کے ساتھ تنازعہ پیدا کر سکتے ہیں۔ ان خدشات کا پتہ لگانے، ان کو کم کرنے، کم سے کم کرنے، یا ختم کرنے کے لیے - ہمیں اپنے اقدامات سے متعلق اخلاقی "ہاں/نہیں" سوالات پوچھنے کی ضرورت ہے، پھر ضرورت کے مطابق اصلاحی اقدامات کریں۔ آئیے کچھ اخلاقی چیلنجز اور ان کے اٹھائے گئے اخلاقی سوالات پر نظر ڈالیں:
2.1 ڈیٹا کی ملکیت
ڈیٹا اکٹھا کرنا اکثر ذاتی ڈیٹا پر مشتمل ہوتا ہے جو ڈیٹا کے موضوعات کی شناخت کر سکتا ہے۔ ڈیٹا کی ملکیت ڈیٹا کی تخلیق، پروسیسنگ، اور تقسیم سے متعلق کنٹرول اور صارف کے حقوق کے بارے میں ہے۔
ہمیں جو اخلاقی سوالات پوچھنے کی ضرورت ہے:
- ڈیٹا کا مالک کون ہے؟ (صارف یا تنظیم)
- ڈیٹا کے موضوعات کے کیا حقوق ہیں؟ (مثلاً: رسائی، حذف، پورٹیبلٹی)
- تنظیم کے کیا حقوق ہیں؟ (مثلاً: بدنیتی پر مبنی صارف کے جائزوں کو درست کرنا)
2.2 مطلع رضامندی
مطلع رضامندی اس عمل کی وضاحت کرتی ہے جس میں صارفین کسی عمل (جیسے ڈیٹا اکٹھا کرنا) پر مکمل معلومات کے ساتھ رضامندی دیتے ہیں، بشمول مقصد، ممکنہ خطرات، اور متبادلات۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا صارف (ڈیٹا کا موضوع) نے ڈیٹا کیپچر اور استعمال کی اجازت دی؟
- کیا صارف نے سمجھا کہ یہ ڈیٹا کس مقصد کے لیے اکٹھا کیا گیا؟
- کیا صارف نے اپنی شرکت سے ممکنہ خطرات کو سمجھا؟
2.3 دانشورانہ املاک
دانشورانہ املاک انسانی پہل سے پیدا ہونے والی غیر مادی تخلیقات کو کہتے ہیں، جو افراد یا کاروبار کے لیے معاشی قدر رکھ سکتی ہیں۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا جمع کیا گیا ڈیٹا صارف یا کاروبار کے لیے معاشی قدر رکھتا ہے؟
- کیا یہاں صارف کی دانشورانہ املاک موجود ہے؟
- کیا یہاں تنظیم کی دانشورانہ املاک موجود ہے؟
- اگر یہ حقوق موجود ہیں، تو ہم انہیں کیسے محفوظ کر رہے ہیں؟
2.4 ڈیٹا پرائیویسی
ڈیٹا پرائیویسی یا معلومات کی پرائیویسی صارف کی شناخت کے تحفظ اور ذاتی طور پر قابل شناخت معلومات کے تحفظ سے متعلق ہے۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا صارفین کا (ذاتی) ڈیٹا ہیکس اور لیکس سے محفوظ ہے؟
- کیا صارفین کا ڈیٹا صرف مجاز صارفین اور سیاق و سباق تک رسائی رکھتا ہے؟
- کیا صارفین کی گمنامی کو ڈیٹا کے اشتراک یا تقسیم کے وقت محفوظ رکھا گیا؟
- کیا صارف کو گمنام ڈیٹاسیٹس سے دوبارہ شناخت کیا جا سکتا ہے؟
2.5 بھول جانے کا حق
بھول جانے کا حق یا حذف کا حق صارفین کو اضافی ذاتی ڈیٹا کے تحفظ فراہم کرتا ہے۔ خاص طور پر، یہ صارفین کو انٹرنیٹ تلاشوں اور دیگر مقامات سے ذاتی ڈیٹا کو حذف کرنے یا ہٹانے کی درخواست کرنے کا حق دیتا ہے، مخصوص حالات کے تحت - انہیں آن لائن ایک نیا آغاز کرنے کی اجازت دیتا ہے بغیر ماضی کے اعمال کے ان کے خلاف استعمال ہونے کے۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا نظام ڈیٹا کے موضوعات کو حذف کی درخواست کرنے کی اجازت دیتا ہے؟
- کیا صارف کی رضامندی کی واپسی خودکار حذف کو متحرک کرنی چاہیے؟
- کیا ڈیٹا بغیر رضامندی یا غیر قانونی ذرائع سے اکٹھا کیا گیا؟
- کیا ہم ڈیٹا پرائیویسی کے لیے حکومتی ضوابط کے مطابق ہیں؟
2.6 ڈیٹاسیٹ کا تعصب
ڈیٹاسیٹ یا اکٹھا کرنے کا تعصب غیر نمائندہ ڈیٹا کے ذیلی سیٹ کو الگورتھم کی ترقی کے لیے منتخب کرنے کے بارے میں ہے، جو مختلف گروہوں کے لیے ممکنہ طور پر غیر منصفانہ نتائج پیدا کرتا ہے۔ تعصب کی اقسام میں انتخاب یا سیمپلنگ کا تعصب، رضاکارانہ تعصب، اور آلے کا تعصب شامل ہیں۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا ہم نے ڈیٹا کے موضوعات کا نمائندہ سیٹ بھرتی کیا؟
- کیا ہم نے اپنے جمع کیے گئے یا ترتیب دیے گئے ڈیٹاسیٹ کو مختلف تعصبات کے لیے جانچا؟
- کیا ہم دریافت شدہ تعصبات کو کم یا ختم کر سکتے ہیں؟
2.7 ڈیٹا کا معیار
ڈیٹا کا معیار اس ترتیب دیے گئے ڈیٹاسیٹ کی درستگی کو دیکھتا ہے جو ہمارے الگورتھمز کو تیار کرنے کے لیے استعمال کیا جاتا ہے، یہ چیک کرتے ہوئے کہ آیا خصوصیات اور ریکارڈز ہمارے AI مقصد کے لیے درکار درستگی اور مستقل مزاجی کی سطح کو پورا کرتے ہیں۔
یہاں دریافت کرنے کے لیے سوالات:
- کیا ہم نے اپنے استعمال کے کیس کے لیے درست خصوصیات کو قید کیا؟
- کیا مختلف ڈیٹا ذرائع کے درمیان ڈیٹا کو مستقل طور پر قید کیا گیا؟
- کیا الگورتھم کی منصفانہ جانچ یہ دیکھتی ہے کہ آیا الگورتھم کا ڈیزائن مخصوص گروہوں کے خلاف منظم طور پر امتیاز کرتا ہے، جس کے نتیجے میں وسائل کی تقسیم (جہاں وسائل کو اس گروہ سے انکار یا روکا جاتا ہے) اور سروس کے معیار (جہاں AI کچھ گروہوں کے لیے اتنا درست نہیں جتنا دوسروں کے لیے ہے) میں ممکنہ نقصان ہوتا ہے۔
یہاں غور کرنے کے سوالات:
- کیا ہم نے مختلف گروہوں اور حالات کے لیے ماڈل کی درستگی کا جائزہ لیا؟
- کیا ہم نے ممکنہ نقصانات (جیسے دقیانوسی تصورات) کے لیے نظام کا بغور جائزہ لیا؟
- کیا ہم ڈیٹا کو دوبارہ ترتیب دے سکتے ہیں یا ماڈلز کو دوبارہ تربیت دے سکتے ہیں تاکہ شناخت شدہ نقصانات کو کم کیا جا سکے؟
مزید جاننے کے لیے AI Fairness چیک لسٹس جیسے وسائل کا جائزہ لیں۔
2.9 غلط بیانی
ڈیٹا کی غلط بیانی یہ سوال اٹھاتی ہے کہ آیا ہم دیانتداری سے رپورٹ کیے گئے ڈیٹا سے حاصل کردہ بصیرت کو دھوکہ دہی کے انداز میں پیش کر رہے ہیں تاکہ مطلوبہ بیانیہ کی حمایت کی جا سکے۔
یہاں غور کرنے کے سوالات:
- کیا ہم نامکمل یا غلط ڈیٹا رپورٹ کر رہے ہیں؟
- کیا ہم ڈیٹا کو اس طرح سے بصری بنا رہے ہیں جو گمراہ کن نتائج کو جنم دیتا ہے؟
- کیا ہم نتائج کو جوڑنے کے لیے منتخب شماریاتی تکنیک استعمال کر رہے ہیں؟
- کیا متبادل وضاحتیں موجود ہیں جو مختلف نتیجہ پیش کر سکتی ہیں؟
2.10 آزاد انتخاب
آزاد انتخاب کا دھوکہ اس وقت ہوتا ہے جب نظام کے "انتخابی ڈھانچے" فیصلہ سازی کے الگورتھمز کا استعمال کرتے ہوئے لوگوں کو ایک ترجیحی نتیجہ کی طرف دھکیلتے ہیں، جبکہ انہیں اختیارات اور کنٹرول دینے کا تاثر دیتے ہیں۔ یہ تاریک نمونے صارفین کو سماجی اور اقتصادی نقصان پہنچا سکتے ہیں۔ چونکہ صارف کے فیصلے رویے کے پروفائلز پر اثر انداز ہوتے ہیں، یہ اقدامات ممکنہ طور پر مستقبل کے انتخاب کو بڑھا سکتے ہیں یا ان نقصانات کے اثرات کو بڑھا سکتے ہیں۔
یہاں غور کرنے کے سوالات:
- کیا صارف نے اس انتخاب کے اثرات کو سمجھا؟
- کیا صارف کو (متبادل) انتخاب اور ہر ایک کے فوائد و نقصانات کا علم تھا؟
- کیا صارف بعد میں خودکار یا متاثرہ انتخاب کو واپس لے سکتا ہے؟
3. کیس اسٹڈیز
ان اخلاقی چیلنجز کو حقیقی دنیا کے سیاق و سباق میں رکھنے کے لیے، ایسے کیس اسٹڈیز کو دیکھنا مددگار ثابت ہوتا ہے جو ان اخلاقی خلاف ورزیوں کو نظر انداز کرنے پر افراد اور معاشرے کو ممکنہ نقصانات اور نتائج کو اجاگر کرتے ہیں۔
یہاں کچھ مثالیں ہیں:
اخلاقی چیلنج | کیس اسٹڈی |
---|---|
مطلع رضامندی | 1972 - ٹسکیگی سیفلس اسٹڈی - افریقی امریکی مردوں کو جو اس مطالعے میں شامل تھے، مفت طبی دیکھ بھال کا وعدہ کیا گیا تھا لیکن دھوکہ دیا گیا کیونکہ محققین نے شرکاء کو ان کی تشخیص یا علاج کی دستیابی کے بارے میں مطلع کرنے میں ناکام رہے۔ کئی شرکاء فوت ہو گئے اور ان کے شریک حیات یا بچے متاثر ہوئے؛ مطالعہ 40 سال تک جاری رہا۔ |
ڈیٹا کی پرائیویسی | 2007 - نیٹ فلکس ڈیٹا انعام نے محققین کو 50K صارفین کے 10M گمنام فلمی درجہ بندی فراہم کی تاکہ سفارش الگورتھمز کو بہتر بنایا جا سکے۔ تاہم، محققین گمنام ڈیٹا کو بیرونی ڈیٹاسیٹس (جیسے IMDb تبصرے) میں ذاتی طور پر شناختی ڈیٹا کے ساتھ جوڑنے میں کامیاب رہے - مؤثر طریقے سے کچھ نیٹ فلکس صارفین کو "ڈی-گمنام" کر دیا۔ |
مجموعہ تعصب | 2013 - بوسٹن شہر نے اسٹریٹ بمپ تیار کیا، ایک ایپ جو شہریوں کو گڑھے رپورٹ کرنے دیتی ہے، جس سے شہر کو بہتر سڑک کے ڈیٹا حاصل کرنے میں مدد ملی۔ تاہم، کم آمدنی والے گروہوں کے لوگوں کو کاروں اور فونز تک کم رسائی حاصل تھی، جس سے ان کے سڑک کے مسائل اس ایپ میں پوشیدہ ہو گئے۔ ڈویلپرز نے منصفانہ رسائی اور ڈیجیٹل تقسیم کے مسائل کے لیے ماہرین کے ساتھ کام کیا۔ |
الگورتھم کی منصفانہ جانچ | 2018 - MIT جینڈر شیڈز اسٹڈی نے صنفی درجہ بندی AI مصنوعات کی درستگی کا جائزہ لیا، خواتین اور رنگین افراد کے لیے درستگی میں فرق کو ظاہر کیا۔ ایک 2019 ایپل کارڈ نے مردوں کے مقابلے میں خواتین کو کم کریڈٹ پیش کیا۔ دونوں نے الگورتھم کے تعصب میں مسائل کو اجاگر کیا جو سماجی و اقتصادی نقصانات کا باعث بنتے ہیں۔ |
ڈیٹا کی غلط بیانی | 2020 - جارجیا ڈیپارٹمنٹ آف پبلک ہیلتھ نے COVID-19 چارٹس جاری کیے جو شہریوں کو تصدیق شدہ کیسز کے رجحانات کے بارے میں گمراہ کرنے کے لیے x-axis پر غیر زمانی ترتیب کا استعمال کرتے ہوئے نظر آئے۔ یہ بصری چالوں کے ذریعے غلط بیانی کو ظاہر کرتا ہے۔ |
آزاد انتخاب کا دھوکہ | 2020 - لرننگ ایپ ABCmouse نے FTC شکایت کو حل کرنے کے لیے $10M ادا کیے جہاں والدین کو سبسکرپشنز کے لیے ادائیگی کرنے پر مجبور کیا گیا جسے وہ منسوخ نہیں کر سکتے تھے۔ یہ انتخابی ڈھانچوں میں تاریک نمونوں کو ظاہر کرتا ہے، جہاں صارفین کو ممکنہ طور پر نقصان دہ انتخاب کی طرف دھکیل دیا گیا۔ |
ڈیٹا کی پرائیویسی اور صارف کے حقوق | 2021 - فیس بک ڈیٹا لیک نے 530M صارفین کا ڈیٹا افشا کیا، جس کے نتیجے میں FTC کو $5B کی ادائیگی ہوئی۔ تاہم، اس نے صارفین کو لیک کے بارے میں مطلع کرنے سے انکار کر دیا، صارف کے ڈیٹا کی شفافیت اور رسائی کے حقوق کی خلاف ورزی کی۔ |
مزید کیس اسٹڈیز دریافت کرنا چاہتے ہیں؟ ان وسائل کو دیکھیں:
- Ethics Unwrapped - مختلف صنعتوں میں اخلاقی مسائل۔
- ڈیٹا سائنس اخلاقیات کورس - اہم کیس اسٹڈیز کا جائزہ۔
- جہاں چیزیں غلط ہوئیں - ڈیون چیک لسٹ کے ساتھ مثالیں۔
🚨 ان کیس اسٹڈیز کے بارے میں سوچیں جو آپ نے دیکھے ہیں - کیا آپ نے اپنی زندگی میں اسی طرح کے اخلاقی چیلنج کا سامنا کیا ہے یا متاثر ہوئے ہیں؟ کیا آپ کم از کم ایک اور کیس اسٹڈی کے بارے میں سوچ سکتے ہیں جو اس سیکشن میں زیر بحث اخلاقی چیلنجز میں سے ایک کو ظاہر کرتا ہو؟
اطلاقی اخلاقیات
ہم نے اخلاقیات کے تصورات، چیلنجز، اور حقیقی دنیا کے سیاق و سباق میں کیس اسٹڈیز پر بات کی۔ لیکن ہم اپنے منصوبوں میں اخلاقی اصولوں اور طریقوں کو لاگو کرنے کا آغاز کیسے کریں؟ اور ہم بہتر حکمرانی کے لیے ان طریقوں کو عملی شکل کیسے دے سکتے ہیں؟ آئیے کچھ حقیقی دنیا کے حل دریافت کریں:
1. پیشہ ورانہ ضابطے
پیشہ ورانہ ضابطے تنظیموں کو اپنے اخلاقی اصولوں اور مشن بیان کی حمایت کرنے کے لیے اراکین کو "حوصلہ افزائی" کرنے کا ایک آپشن پیش کرتے ہیں۔ ضابطے پیشہ ورانہ رویے کے لیے اخلاقی رہنما خطوط ہیں، جو ملازمین یا اراکین کو ایسے فیصلے کرنے میں مدد دیتے ہیں جو ان کی تنظیم کے اصولوں کے مطابق ہوں۔ یہ صرف اراکین کی رضاکارانہ تعمیل کے طور پر اچھے ہیں؛ تاہم، بہت سی تنظیمیں اراکین کی تعمیل کو متحرک کرنے کے لیے اضافی انعامات اور سزائیں پیش کرتی ہیں۔
مثالیں شامل ہیں:
- آکسفورڈ میونخ اخلاقیات کا ضابطہ
- ڈیٹا سائنس ایسوسی ایشن ضابطہ اخلاق (2013 میں تخلیق کیا گیا)
- ACM ضابطہ اخلاق اور پیشہ ورانہ طرز عمل (1993 سے)
🚨 کیا آپ کسی پیشہ ور انجینئرنگ یا ڈیٹا سائنس تنظیم کے رکن ہیں؟ ان کی ویب سائٹ کو دیکھیں کہ آیا وہ پیشہ ورانہ اخلاقیات کا ضابطہ بیان کرتے ہیں۔ یہ ان کے اخلاقی اصولوں کے بارے میں کیا کہتا ہے؟ وہ اراکین کو ضابطے پر عمل کرنے کے لیے کیسے "حوصلہ افزائی" کر رہے ہیں؟
2. اخلاقیات چیک لسٹس
جبکہ پیشہ ورانہ ضابطے پریکٹیشنرز سے مطلوبہ اخلاقی رویے کی وضاحت کرتے ہیں، ان کے نفاذ میں معلوم حدود ہیں، خاص طور پر بڑے پیمانے پر منصوبوں میں۔ اس کے بجائے، بہت سے ڈیٹا سائنس ماہرین چیک لسٹس کی وکالت کرتے ہیں، جو اصولوں کو عملی طریقوں سے جوڑ سکتے ہیں۔
چیک لسٹس سوالات کو "ہاں/نہیں" کاموں میں تبدیل کرتی ہیں جنہیں عملی شکل دی جا سکتی ہے، جس سے انہیں معیاری پروڈکٹ ریلیز ورک فلو کے حصے کے طور پر ٹریک کیا جا سکتا ہے۔
مثالیں شامل ہیں:
- ڈیون - صنعت کی سفارشات سے تخلیق کردہ ایک عمومی مقصد ڈیٹا اخلاقیات چیک لسٹ کمانڈ لائن ٹول کے ساتھ آسان انضمام کے لیے۔
- پرائیویسی آڈٹ چیک لسٹ - قانونی اور سماجی نمائش کے نقطہ نظر سے معلوماتی ہینڈلنگ کے طریقوں کے لیے عمومی رہنمائی فراہم کرتی ہے۔
- AI منصفانہ چیک لسٹ - AI پریکٹیشنرز کے ذریعہ تخلیق کردہ، AI ترقیاتی سائیکلوں میں منصفانہ چیکوں کو اپنانے اور انضمام کی حمایت کے لیے۔
- ڈیٹا اور AI میں اخلاقیات کے لیے 22 سوالات - زیادہ کھلے ڈھانچے کا فریم ورک، ڈیزائن، نفاذ، اور تنظیمی سیاق و سباق میں اخلاقی مسائل کی ابتدائی تلاش کے لیے۔
3. اخلاقیات کے ضوابط
اخلاقیات مشترکہ اقدار کی وضاحت کرنے اور رضاکارانہ طور پر صحیح کام کرنے کے بارے میں ہیں۔ تعمیل اس بارے میں ہے کہ قانون کی پیروی کرنا اگر اور جہاں بیان کیا گیا ہو۔ حکمرانی وسیع پیمانے پر ان تمام طریقوں کا احاطہ کرتی ہے جن کے ذریعے تنظیمیں اخلاقی اصولوں کو نافذ کرنے اور قائم کردہ قوانین کی تعمیل کرنے کے لیے کام کرتی ہیں۔
آج، حکمرانی تنظیموں کے اندر دو شکلیں اختیار کرتی ہے۔ پہلے، یہ اخلاقی AI اصولوں کی وضاحت کرنے اور تنظیم میں تمام AI سے متعلق منصوبوں میں اپنانے کو عملی شکل دینے کے طریقوں کو قائم کرنے کے بارے میں ہے۔ دوسرا، یہ ان تمام حکومت کی طرف سے لازمی ڈیٹا تحفظ کے ضوابط کی تعمیل کے بارے میں ہے جن علاقوں میں یہ کام کرتی ہے۔
ڈیٹا تحفظ اور پرائیویسی ضوابط کی مثالیں:
1974
, امریکی پرائیویسی ایکٹ - وفاقی حکومت کے ذاتی معلومات کے جمع کرنے، استعمال، اور انکشاف کو منظم کرتا ہے۔1996
, امریکی ہیلتھ انشورنس پورٹیبلٹی اور احتساب ایکٹ (HIPAA) - ذاتی صحت کے ڈیٹا کی حفاظت کرتا ہے۔1998
, امریکی بچوں کا آن لائن پرائیویسی تحفظ ایکٹ (COPPA) - 13 سال سے کم عمر بچوں کے ڈیٹا کی پرائیویسی کی حفاظت کرتا ہے۔2018
, جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) - صارف کے حقوق، ڈیٹا تحفظ، اور پرائیویسی فراہم کرتا ہے۔2018
, کیلیفورنیا کنزیومر پرائیویسی ایکٹ (CCPA) صارفین کو ان کے (ذاتی) ڈیٹا پر زیادہ حقوق دیتا ہے۔2021
, چین کا ذاتی معلومات کا تحفظ قانون ابھی پاس ہوا، دنیا میں آن لائن ڈیٹا پرائیویسی کے سب سے مضبوط ضوابط میں سے ایک تخلیق کرتا ہے۔
🚨 یورپی یونین کی طرف سے بیان کردہ GDPR (جنرل ڈیٹا پروٹیکشن ریگولیشن) آج ڈیٹا پرائیویسی کے سب سے زیادہ اثر انگیز ضوابط میں سے ایک ہے۔ کیا آپ جانتے ہیں کہ یہ 8 صارف کے حقوق بھی بیان کرتا ہے تاکہ شہریوں کی ڈیجیٹل پرائیویسی اور ذاتی ڈیٹا کی حفاظت کی جا سکے؟ ان کے بارے میں جانیں کہ یہ کیا ہیں اور کیوں اہم ہیں۔
4. اخلاقیات کی ثقافت
نوٹ کریں کہ تعمیل (قانون کے "حرف" کو پورا کرنے کے لیے کافی کرنا) اور نظامی مسائل (جیسے جمود، معلوماتی عدم توازن، اور تقسیماتی غیر منصفانہ) کو حل کرنے کے درمیان ایک غیر محسوس فرق موجود ہے جو AI کے ہتھیاروں کو تیز کر سکتا ہے۔
بعد والے کو اخلاقیات کی ثقافتوں کی وضاحت کے لیے تعاون پر مبنی نقطہ نظر کی ضرورت ہوتی ہے جو صنعت میں تنظیموں کے درمیان جذباتی تعلقات اور مستقل مشترکہ اقدار کو تشکیل دیتے ہیں۔ اس کے لیے تنظیموں میں زیادہ باضابطہ ڈیٹا اخلاقیات کی ثقافتیں بنانے کی ضرورت ہوتی ہے - جس سے کوئی بھی اینڈن کورڈ کھینچ سکتا ہے (عمل کے ابتدائی مرحلے میں اخلاقیات کے خدشات کو اٹھانے کے لیے) اور اخلاقی تشخیصات (جیسے، بھرتی میں) کو AI منصوبوں میں ٹیم کی تشکیل کے لیے ایک بنیادی معیار بنا سکتا ہے۔
لیکچر کے بعد کا کوئز 🎯
جائزہ اور خود مطالعہ
کورسز اور کتابیں اخلاقیات کے بنیادی تصورات اور چیلنجز کو سمجھنے میں مدد کرتی ہیں، جبکہ کیس اسٹڈیز اور ٹولز حقیقی دنیا کے سیاق و سباق میں اطلاقی اخلاقیات کے طریقوں میں مدد کرتے ہیں۔ شروع کرنے کے لیے یہاں کچھ وسائل ہیں۔
- [
- ذمہ دار مصنوعی ذہانت کے اصول - مائیکروسافٹ لرن سے مفت تعلیمی راستہ۔
- اخلاقیات اور ڈیٹا سائنس - او'ریلی ای بک (ایم لوکائیڈز، ایچ میسن وغیرہ)
- ڈیٹا سائنس اخلاقیات - مشی گن یونیورسٹی کا آن لائن کورس۔
- اخلاقیات ان ریپڈ - ٹیکساس یونیورسٹی کے کیس اسٹڈیز۔
اسائنمنٹ
ڈیٹا اخلاقیات کا کیس اسٹڈی لکھیں
ڈسکلیمر:
یہ دستاویز AI ترجمہ سروس Co-op Translator کا استعمال کرتے ہوئے ترجمہ کی گئی ہے۔ ہم درستگی کے لیے کوشش کرتے ہیں، لیکن براہ کرم آگاہ رہیں کہ خودکار ترجمے میں غلطیاں یا عدم درستگی ہو سکتی ہیں۔ اصل دستاویز کو اس کی اصل زبان میں مستند ذریعہ سمجھا جانا چاہیے۔ اہم معلومات کے لیے، پیشہ ور انسانی ترجمہ کی سفارش کی جاتی ہے۔ اس ترجمے کے استعمال سے پیدا ہونے والی کسی بھی غلط فہمی یا غلط تشریح کے لیے ہم ذمہ دار نہیں ہیں۔