You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/ur/1-Introduction/02-ethics
leestott a12f5d4c2d
🌐 Update translations via Co-op Translator
4 months ago
..
README.md 🌐 Update translations via Co-op Translator 4 months ago
assignment.md 🌐 Update translations via Co-op Translator 5 months ago

README.md

ڈیٹا اخلاقیات کا تعارف

 اسکیچ نوٹ (@sketchthedocs) کی طرف سے
ڈیٹا سائنس اخلاقیات - اسکیچ نوٹ @nitya کی طرف سے

ہم سب ایک ڈیٹا سے بھرپور دنیا میں ڈیٹا کے شہری ہیں۔

مارکیٹ کے رجحانات بتاتے ہیں کہ 2022 تک، ہر تین میں سے ایک بڑی تنظیم اپنا ڈیٹا آن لائن مارکیٹ پلیسز اور ایکسچینجز کے ذریعے خریدے گی اور بیچے گی۔ بطور ایپ ڈویلپرز، ہمارے لیے ڈیٹا سے چلنے والی بصیرتوں اور الگورتھم سے چلنے والی خودکاریت کو روزمرہ کے صارف تجربات میں شامل کرنا آسان اور سستا ہوگا۔ لیکن جیسے جیسے AI عام ہوتا جا رہا ہے، ہمیں یہ بھی سمجھنا ہوگا کہ بڑے پیمانے پر ان الگورتھمز کے ہتھیار سازی سے کیا ممکنہ نقصان ہو سکتا ہے۔

رجحانات بتاتے ہیں کہ 2025 تک، ہم 180 زیٹا بائٹس سے زیادہ ڈیٹا پیدا کریں گے اور استعمال کریں گے۔ بطور ڈیٹا سائنسدان، معلومات کے اس دھماکے سے ہمیں ذاتی اور رویے کے ڈیٹا تک بے مثال رسائی حاصل ہوگی۔ اس کے ساتھ، صارفین کی تفصیلی پروفائلز بنانے اور فیصلہ سازی پر غیر محسوس طریقے سے اثر ڈالنے کی طاقت بھی آتی ہے—اکثر ایسے طریقوں سے جو آزاد انتخاب کا دھوکہ پیدا کرتے ہیں۔ اگرچہ یہ صارفین کو مطلوبہ نتائج کی طرف دھکیلنے کے لیے استعمال کیا جا سکتا ہے، لیکن یہ ڈیٹا کی پرائیویسی، خودمختاری، اور الگورتھمک اثر کے اخلاقی حدود کے بارے میں اہم سوالات بھی اٹھاتا ہے۔

ڈیٹا اخلاقیات اب ڈیٹا سائنس اور انجینئرنگ کے لیے ضروری حفاظتی اصول ہیں، جو ہمارے ڈیٹا سے چلنے والے اقدامات کے ممکنہ نقصانات اور غیر ارادی نتائج کو کم کرنے میں مدد کرتے ہیں۔ گارٹنر ہائپ سائیکل فار AI ڈیجیٹل اخلاقیات، ذمہ دار AI، اور AI گورننس میں متعلقہ رجحانات کی نشاندہی کرتا ہے، جو AI کی جمہوریت سازی اور صنعت کاری کے ارد گرد بڑے رجحانات کے کلیدی محرکات ہیں۔

گارٹنر کا ہائپ سائیکل فار AI - 2020

اس سبق میں، ہم ڈیٹا اخلاقیات کے دلچسپ علاقے کو دریافت کریں گے - بنیادی تصورات اور چیلنجز سے لے کر کیس اسٹڈیز اور AI کے اطلاقی تصورات جیسے گورننس - جو ڈیٹا اور AI کے ساتھ کام کرنے والی ٹیموں اور تنظیموں میں اخلاقیات کی ثقافت قائم کرنے میں مدد کرتے ہیں۔

لیکچر سے پہلے کا کوئز 🎯

بنیادی تعریفیں

آئیے بنیادی اصطلاحات کو سمجھنے سے شروع کرتے ہیں۔

لفظ "اخلاقیات" یونانی لفظ "ethikos" (اور اس کی جڑ "ethos") سے آیا ہے، جس کا مطلب ہے کردار یا اخلاقی فطرت۔

اخلاقیات ان مشترکہ اقدار اور اخلاقی اصولوں کے بارے میں ہیں جو معاشرے میں ہمارے رویے کو کنٹرول کرتے ہیں۔ اخلاقیات قوانین پر مبنی نہیں ہیں بلکہ اس بات کے وسیع پیمانے پر قبول شدہ اصولوں پر مبنی ہیں کہ کیا "صحیح بمقابلہ غلط" ہے۔ تاہم، اخلاقی غور و فکر کارپوریٹ گورننس اقدامات اور حکومتی ضوابط کو متاثر کر سکتے ہیں جو تعمیل کے لیے مزید ترغیبات پیدا کرتے ہیں۔

ڈیٹا اخلاقیات اخلاقیات کی ایک نئی شاخ ہے جو "ڈیٹا، الگورتھمز اور متعلقہ طریقوں" سے متعلق اخلاقی مسائل کا مطالعہ اور جائزہ لیتی ہے۔ یہاں، "ڈیٹا" ان اعمال پر مرکوز ہے جو پیداوار، ریکارڈنگ، کیوریشن، پروسیسنگ، تقسیم، اشتراک، اور استعمال سے متعلق ہیں، "الگورتھمز" AI، ایجنٹس، مشین لرننگ، اور روبوٹس پر مرکوز ہیں، اور "طریقے" ذمہ دارانہ جدت، پروگرامنگ، ہیکنگ، اور اخلاقیات کے ضابطوں جیسے موضوعات پر مرکوز ہیں۔

اطلاقی اخلاقیات اخلاقی غور و فکر کے عملی اطلاق کے بارے میں ہیں۔ یہ حقیقی دنیا کے اعمال، مصنوعات اور عمل کے سیاق و سباق میں اخلاقی مسائل کی فعال طور پر تحقیق کرنے، اور ان اخلاقی اقدار کے ساتھ ہم آہنگ رہنے کو یقینی بنانے کے لیے اصلاحی اقدامات کرنے کا عمل ہے۔

اخلاقیات کی ثقافت اطلاقی اخلاقیات کو عملی جامہ پہنانے کے بارے میں ہے تاکہ یہ یقینی بنایا جا سکے کہ ہماری اخلاقی اصول اور طریقے پورے تنظیم میں مستقل اور قابل پیمانہ انداز میں اپنائے جائیں۔ کامیاب اخلاقیات کی ثقافتیں تنظیمی سطح پر اخلاقی اصولوں کی وضاحت کرتی ہیں، تعمیل کے لیے بامعنی ترغیبات فراہم کرتی ہیں، اور ہر سطح پر مطلوبہ رویوں کو فروغ دے کر اور بڑھا کر اخلاقیات کے اصولوں کو تقویت دیتی ہیں۔

اخلاقیات کے تصورات

اس حصے میں، ہم مشترکہ اقدار (اصول) اور اخلاقی چیلنجز (مسائل) جیسے تصورات پر بات کریں گے جو ڈیٹا اخلاقیات کے لیے اہم ہیں - اور کیس اسٹڈیز کا جائزہ لیں گے جو آپ کو حقیقی دنیا کے سیاق و سباق میں ان تصورات کو سمجھنے میں مدد دیتے ہیں۔

1. اخلاقیات کے اصول

ہر ڈیٹا اخلاقیات کی حکمت عملی اخلاقی اصولوں کی وضاحت سے شروع ہوتی ہے - وہ "مشترکہ اقدار" جو قابل قبول رویوں کو بیان کرتی ہیں، اور ہمارے ڈیٹا اور AI منصوبوں میں تعمیل کے اقدامات کی رہنمائی کرتی ہیں۔ آپ ان اصولوں کو انفرادی یا ٹیم کی سطح پر بیان کر سکتے ہیں۔ تاہم، زیادہ تر بڑی تنظیمیں ان اصولوں کو ایک اخلاقی AI مشن بیان یا فریم ورک میں بیان کرتی ہیں جو کارپوریٹ سطح پر بیان کیا جاتا ہے اور تمام ٹیموں میں مستقل طور پر نافذ کیا جاتا ہے۔

مثال: مائیکروسافٹ کا ذمہ دار AI مشن بیان کہتا ہے: "ہم AI کی ترقی کے لیے اخلاقی اصولوں کے ذریعے پرعزم ہیں جو لوگوں کو اولین ترجیح دیتے ہیں" - اور نیچے دیے گئے فریم ورک میں 6 اخلاقی اصولوں کی نشاندہی کرتا ہے:

مائیکروسافٹ میں ذمہ دار AI

آئیے ان اصولوں کو مختصراً دریافت کریں۔ شفافیت اور جوابدہی بنیادی اقدار ہیں جن پر دیگر اصول تعمیر کیے گئے ہیں - تو آئیے یہاں سے شروع کرتے ہیں:

  • جوابدہی ڈیٹا اور AI کے آپریشنز کے لیے پریکٹیشنرز کو ذمہ دار بناتی ہے، اور ان اخلاقی اصولوں کی تعمیل کو یقینی بناتی ہے۔
  • شفافیت اس بات کو یقینی بناتی ہے کہ ڈیٹا اور AI کے اقدامات صارفین کے لیے سمجھنے کے قابل ہوں، فیصلوں کے پیچھے کیا اور کیوں کی وضاحت کرتے ہوئے۔
  • انصاف - اس بات کو یقینی بنانے پر مرکوز ہے کہ AI تمام لوگوں کے ساتھ منصفانہ سلوک کرے، ڈیٹا اور سسٹمز میں کسی بھی نظامی یا غیر واضح سماجی-تکنیکی تعصبات کو حل کرے۔
  • قابل اعتمادیت اور حفاظت - اس بات کو یقینی بناتی ہے کہ AI مقررہ اقدار کے ساتھ مستقل طور پر کام کرے، ممکنہ نقصانات یا غیر ارادی نتائج کو کم کرے۔
  • پرائیویسی اور سیکیورٹی - ڈیٹا کی اصلیت کو سمجھنے اور صارفین کو ڈیٹا پرائیویسی اور متعلقہ تحفظات فراہم کرنے کے بارے میں ہے۔
  • شمولیت - AI حل کو ارادے کے ساتھ ڈیزائن کرنے کے بارے میں ہے، انہیں انسانی ضروریات اور صلاحیتوں کی وسیع رینج کو پورا کرنے کے لیے ڈھالنا۔

🚨 سوچیں کہ آپ کا ڈیٹا اخلاقیات مشن بیان کیا ہو سکتا ہے۔ دیگر تنظیموں کے اخلاقی AI فریم ورک کو دریافت کریں - یہاں IBM، Google، اور Facebook کی مثالیں ہیں۔ ان کے مشترکہ اقدار کیا ہیں؟ یہ اصول ان کے AI پروڈکٹ یا صنعت سے کیسے متعلق ہیں جس میں وہ کام کرتے ہیں؟

2. اخلاقیات کے چیلنجز

جب ہم اخلاقی اصولوں کی وضاحت کر لیتے ہیں، تو اگلا قدم ہمارے ڈیٹا اور AI کے اقدامات کا جائزہ لینا ہے تاکہ یہ دیکھا جا سکے کہ آیا وہ ان مشترکہ اقدار کے ساتھ ہم آہنگ ہیں۔ اپنے اقدامات کو دو زمروں میں سوچیں: ڈیٹا جمع کرنا اور الگورتھم ڈیزائن۔

ڈیٹا جمع کرنے کے ساتھ، اقدامات ممکنہ طور پر ذاتی ڈیٹا یا ذاتی طور پر قابل شناخت معلومات (PII) شامل کریں گے جو زندہ افراد کی شناخت کر سکتی ہیں۔ اس میں غیر ذاتی ڈیٹا کی مختلف اشیاء شامل ہیں جو اجتماعی طور پر کسی فرد کی شناخت کرتی ہیں۔ اخلاقی چیلنجز ڈیٹا پرائیویسی, ڈیٹا کی ملکیت, اور متعلقہ موضوعات جیسے مطلع رضامندی اور صارفین کے دانشورانہ املاک کے حقوق سے متعلق ہو سکتے ہیں۔

الگورتھم ڈیزائن کے ساتھ، اقدامات ڈیٹا سیٹس جمع کرنے اور ان کی کیوریشن میں شامل ہوں گے، پھر انہیں ڈیٹا ماڈلز کو تربیت دینے اور تعینات کرنے کے لیے استعمال کریں گے جو حقیقی دنیا کے سیاق و سباق میں نتائج کی پیش گوئی کرتے ہیں یا فیصلے خودکار بناتے ہیں۔ اخلاقی چیلنجز ڈیٹا سیٹ کے تعصب, ڈیٹا کے معیار کے مسائل, غیر منصفانہ اور غلط نمائندگی الگورتھمز میں پیدا ہو سکتے ہیں - بشمول کچھ مسائل جو نظامی نوعیت کے ہیں۔

دونوں صورتوں میں، اخلاقیات کے چیلنجز ان علاقوں کو اجاگر کرتے ہیں جہاں ہمارے اقدامات ہمارے مشترکہ اقدار کے ساتھ تنازعہ پیدا کر سکتے ہیں۔ ان خدشات کا پتہ لگانے، کم کرنے، کم سے کم کرنے، یا ختم کرنے کے لیے - ہمیں اپنے اقدامات سے متعلق اخلاقی "ہاں/نہیں" سوالات پوچھنے کی ضرورت ہے، پھر ضرورت کے مطابق اصلاحی اقدامات کریں۔ آئیے کچھ اخلاقی چیلنجز اور ان کے اٹھائے گئے اخلاقی سوالات پر نظر ڈالیں:

2.1 ڈیٹا کی ملکیت

ڈیٹا جمع کرنا اکثر ذاتی ڈیٹا شامل کرتا ہے جو ڈیٹا کے موضوعات کی شناخت کر سکتا ہے۔ ڈیٹا کی ملکیت کنٹرول اور صارف کے حقوق سے متعلق ہے جو ڈیٹا کی تخلیق، پروسیسنگ، اور تقسیم سے متعلق ہیں۔

اخلاقی سوالات جو ہمیں پوچھنے کی ضرورت ہے:

  • ڈیٹا کا مالک کون ہے؟ (صارف یا تنظیم)
  • ڈیٹا کے موضوعات کے کیا حقوق ہیں؟ (مثلاً: رسائی، حذف، پورٹیبلٹی)
  • تنظیموں کے کیا حقوق ہیں؟ (مثلاً: بدنیتی پر مبنی صارف جائزوں کو درست کرنا)

2.2 مطلع رضامندی

مطلع رضامندی صارفین کے کسی عمل (جیسے ڈیٹا جمع کرنا) پر مکمل سمجھ کے ساتھ رضامندی دینے کے عمل کی وضاحت کرتی ہے، جس میں مقصد، ممکنہ خطرات، اور متبادل شامل ہیں۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا صارف (ڈیٹا کا موضوع) نے ڈیٹا کیپچر اور استعمال کی اجازت دی؟
  • کیا صارف نے اس مقصد کو سمجھا جس کے لیے وہ ڈیٹا جمع کیا گیا تھا؟
  • کیا صارف نے اپنی شرکت سے پیدا ہونے والے ممکنہ خطرات کو سمجھا؟

2.3 دانشورانہ املاک

دانشورانہ املاک انسانی پہل سے پیدا ہونے والی غیر محسوس تخلیقات کو ظاہر کرتی ہے، جو افراد یا کاروبار کے لیے معاشی قدر رکھ سکتی ہیں۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا جمع کردہ ڈیٹا صارف یا کاروبار کے لیے معاشی قدر رکھتا تھا؟
  • کیا یہاں صارف کے پاس دانشورانہ املاک ہیں؟
  • کیا یہاں تنظیم کے پاس دانشورانہ املاک ہیں؟
  • اگر یہ حقوق موجود ہیں، تو ہم انہیں کیسے محفوظ کر رہے ہیں؟

2.4 ڈیٹا پرائیویسی

ڈیٹا پرائیویسی یا معلومات کی پرائیویسی صارف کی پرائیویسی کو محفوظ رکھنے اور ذاتی طور پر قابل شناخت معلومات کے ساتھ صارف کی شناخت کے تحفظ سے متعلق ہے۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا صارفین کا (ذاتی) ڈیٹا ہیک اور لیک سے محفوظ ہے؟
  • کیا صارفین کا ڈیٹا صرف مجاز صارفین اور سیاق و سباق تک قابل رسائی ہے؟
  • کیا صارفین کی گمنامی کو محفوظ رکھا گیا ہے جب ڈیٹا شیئر یا تقسیم کیا جاتا ہے؟
  • کیا صارف کو گمنام ڈیٹا سیٹس سے ڈی-شناخت کیا جا سکتا ہے؟

2.5 بھول جانے کا حق

بھول جانے کا حق یا حذف کا حق صارفین کو اضافی ذاتی ڈیٹا تحفظ فراہم کرتا ہے۔ خاص طور پر، یہ صارفین کو انٹرنیٹ تلاشوں اور دیگر مقامات سے ذاتی ڈیٹا کو حذف یا ہٹانے کی درخواست کرنے کا حق دیتا ہے، مخصوص حالات کے تحت - انہیں آن لائن ایک نئی شروعات کرنے کی اجازت دیتا ہے بغیر ماضی کے اعمال کے ان کے خلاف استعمال ہونے کے۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا نظام ڈیٹا کے موضوعات کو حذف کی درخواست کرنے کی اجازت دیتا ہے؟
  • کیا صارف کی رضامندی کی واپسی خودکار حذف کو متحرک کرنی چاہیے؟
  • کیا ڈیٹا بغیر رضامندی یا غیر قانونی ذرائع سے جمع کیا گیا تھا؟
  • کیا ہم ڈیٹا پرائیویسی کے لیے حکومتی ضوابط کے مطابق ہیں؟

2.6 ڈیٹا سیٹ کا تعصب

ڈیٹا سیٹ یا جمع کرنے کا تعصب ایک غیر نمائندہ ڈیٹا کے ذیلی سیٹ کو الگورتھم کی ترقی کے لیے منتخب کرنے کے بارے میں ہے، جو مختلف گروپوں کے لیے ممکنہ غیر منصفانہ نتائج پیدا کرتا ہے۔ تعصب کی اقسام میں انتخاب یا نمونہ تعصب، رضاکارانہ تعصب، اور آلہ تعصب شامل ہیں۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا ہم نے ڈیٹا کے موضوعات کا نمائندہ سیٹ بھرتی کیا؟
  • کیا ہم نے مختلف تعصبات کے لیے اپنے جمع کردہ یا کیوریٹڈ ڈیٹا سیٹ کی جانچ کی؟
  • کیا ہم دریافت شدہ تعصبات کو کم یا ختم کر سکتے ہیں؟

2.7 ڈیٹا کا معیار

ڈیٹا کا معیار ہمارے الگورتھمز کو تیار کرنے کے لیے استعمال کیے گئے کیوریٹڈ ڈیٹا سیٹ کی درستگی کو دیکھتا ہے، یہ چیک کرتے ہوئے کہ آیا خصوصیات اور ریکارڈز ہمارے AI مقصد کے لیے مطلوبہ سطح کی درستگی اور مستقل مزاجی کو پورا کرتے ہیں۔

یہاں سوالات دریافت کرنے کے لیے:

  • کیا ہم نے اپنے
  • کیا معلومات حقیقت کی درست عکاسی کرتے ہوئے صحیح طور پر حاصل کی گئی ہیں؟

2.8 الگورتھم کی انصاف پسندی

الگورتھم کی انصاف پسندی یہ جانچتی ہے کہ آیا الگورتھم کا ڈیزائن مخصوص گروہوں کے خلاف منظم طور پر امتیاز کرتا ہے، جس کے نتیجے میں وسائل کی تقسیم (جہاں وسائل کو اس گروہ سے انکار یا روکا جاتا ہے) اور سروس کے معیار (جہاں AI کچھ گروہوں کے لیے اتنا درست نہیں جتنا دوسروں کے لیے ہے) میں ممکنہ نقصان ہوتا ہے۔

یہاں غور کرنے کے لیے سوالات:

  • کیا ہم نے مختلف گروہوں اور حالات کے لیے ماڈل کی درستگی کا جائزہ لیا؟
  • کیا ہم نے نظام کو ممکنہ نقصانات (جیسے، دقیانوسی تصورات) کے لیے جانچا؟
  • کیا ہم ڈیٹا کو دوبارہ ترتیب دے سکتے ہیں یا ماڈلز کو دوبارہ تربیت دے سکتے ہیں تاکہ شناخت شدہ نقصانات کو کم کیا جا سکے؟

مزید جاننے کے لیے AI انصاف پسندی کی چیک لسٹس جیسے وسائل کا جائزہ لیں۔

2.9 غلط بیانی

ڈیٹا کی غلط بیانی یہ سوال اٹھاتی ہے کہ آیا ہم دیانتداری سے رپورٹ کیے گئے ڈیٹا سے حاصل کردہ بصیرت کو کسی مطلوبہ بیانیے کی حمایت کے لیے دھوکہ دہی سے پیش کر رہے ہیں۔

یہاں غور کرنے کے لیے سوالات:

  • کیا ہم نامکمل یا غلط ڈیٹا رپورٹ کر رہے ہیں؟
  • کیا ہم ڈیٹا کو اس طرح سے بصری بنا رہے ہیں جو گمراہ کن نتائج کو جنم دیتا ہے؟
  • کیا ہم نتائج کو جوڑنے کے لیے منتخب شماریاتی تکنیک استعمال کر رہے ہیں؟
  • کیا متبادل وضاحتیں موجود ہیں جو مختلف نتیجہ پیش کر سکتی ہیں؟

2.10 آزاد انتخاب

آزاد انتخاب کا دھوکہ اس وقت ہوتا ہے جب نظام کے "انتخابی ڈھانچے" فیصلہ سازی کے الگورتھمز کا استعمال کرتے ہوئے لوگوں کو ایک ترجیحی نتیجہ لینے کی طرف مائل کرتے ہیں جبکہ انہیں اختیارات اور کنٹرول دینے کا تاثر دیتے ہیں۔ یہ تاریک نمونے صارفین کو سماجی اور اقتصادی نقصان پہنچا سکتے ہیں۔ چونکہ صارف کے فیصلے رویے کے پروفائلز پر اثر انداز ہوتے ہیں، یہ اعمال ممکنہ طور پر مستقبل کے انتخاب کو متاثر کر سکتے ہیں جو ان نقصانات کے اثرات کو بڑھا یا طول دے سکتے ہیں۔

یہاں غور کرنے کے لیے سوالات:

  • کیا صارف نے اس انتخاب کے اثرات کو سمجھا؟
  • کیا صارف متبادل انتخاب اور ان کے فوائد و نقصانات سے آگاہ تھا؟
  • کیا صارف بعد میں خودکار یا متاثرہ انتخاب کو تبدیل کر سکتا ہے؟

3. کیس اسٹڈیز

ان اخلاقی چیلنجز کو حقیقی دنیا کے سیاق و سباق میں رکھنے کے لیے، ایسے کیس اسٹڈیز کو دیکھنا مددگار ثابت ہوتا ہے جو ان اخلاقی خلاف ورزیوں کو نظر انداز کرنے پر افراد اور معاشرے کو ممکنہ نقصانات اور نتائج کو اجاگر کرتے ہیں۔

یہاں کچھ مثالیں ہیں:

اخلاقی چیلنج کیس اسٹڈی
مطلع رضامندی 1972 - ٹسکیگی سیفلس اسٹڈی - افریقی امریکی مردوں کو جو اس مطالعے میں شریک ہوئے، مفت طبی دیکھ بھال کا وعدہ کیا گیا لیکن دھوکہ دیا گیا، کیونکہ محققین نے شرکاء کو ان کی تشخیص یا علاج کی دستیابی کے بارے میں مطلع کرنے میں ناکام رہے۔ کئی شرکاء فوت ہو گئے اور ان کے شریک حیات یا بچے متاثر ہوئے؛ مطالعہ 40 سال تک جاری رہا۔
ڈیٹا کی پرائیویسی 2007 - نیٹ فلکس ڈیٹا انعام نے محققین کو 50K صارفین کے 10M گمنام فلمی درجہ بندی فراہم کی تاکہ سفارش الگورتھمز کو بہتر بنایا جا سکے۔ تاہم، محققین گمنام ڈیٹا کو بیرونی ڈیٹا سیٹس (جیسے، IMDb تبصرے) میں ذاتی شناختی ڈیٹا کے ساتھ جوڑنے میں کامیاب رہے - مؤثر طریقے سے کچھ نیٹ فلکس صارفین کو "ڈی-گمنام" کر دیا۔
مجموعہ تعصب 2013 - بوسٹن شہر نے اسٹریٹ بمپ تیار کیا، ایک ایپ جس نے شہریوں کو گڑھے رپورٹ کرنے دیے، جس سے شہر کو بہتر سڑک کے ڈیٹا حاصل کرنے اور مسائل کو حل کرنے میں مدد ملی۔ تاہم، کم آمدنی والے گروہوں کے لوگوں کو کاروں اور فونز تک کم رسائی حاصل تھی، جس سے ان کے سڑک کے مسائل اس ایپ میں پوشیدہ ہو گئے۔ ڈویلپرز نے انصاف کے لیے برابر رسائی اور ڈیجیٹل تقسیم کے مسائل پر ماہرین کے ساتھ کام کیا۔
الگورتھم کی انصاف پسندی 2018 - MIT جینڈر شیڈز اسٹڈی نے صنفی درجہ بندی AI مصنوعات کی درستگی کا جائزہ لیا، خواتین اور رنگین افراد کے لیے درستگی میں فرق کو ظاہر کیا۔ ایک 2019 ایپل کارڈ نے مردوں کے مقابلے میں خواتین کو کم کریڈٹ پیش کیا۔ دونوں نے الگورتھم کے تعصب میں مسائل کو اجاگر کیا جس کے نتیجے میں سماجی و اقتصادی نقصانات ہوئے۔
ڈیٹا کی غلط بیانی 2020 - جارجیا ڈیپارٹمنٹ آف پبلک ہیلتھ نے COVID-19 چارٹس جاری کیے جو شہریوں کو تصدیق شدہ کیسز کے رجحانات کے بارے میں گمراہ کن معلومات فراہم کرتے تھے، x-axis پر غیر زمانی ترتیب کے ساتھ۔ یہ بصری چالوں کے ذریعے غلط بیانی کی مثال ہے۔
آزاد انتخاب کا دھوکہ 2020 - لرننگ ایپ ABCmouse نے FTC شکایت کو حل کرنے کے لیے $10M ادا کیے جہاں والدین کو ایسی سبسکرپشنز کے لیے ادائیگی کرنے پر مجبور کیا گیا جنہیں وہ منسوخ نہیں کر سکتے تھے۔ یہ انتخابی ڈھانچوں میں تاریک نمونوں کی مثال ہے، جہاں صارفین کو ممکنہ طور پر نقصان دہ انتخاب کی طرف مائل کیا گیا۔
ڈیٹا کی پرائیویسی اور صارف کے حقوق 2021 - فیس بک ڈیٹا لیک نے 530M صارفین کا ڈیٹا لیک کیا، جس کے نتیجے میں FTC کو $5B کا تصفیہ ہوا۔ تاہم، اس نے صارفین کو لیک کے بارے میں مطلع کرنے سے انکار کر دیا، صارف کے ڈیٹا کی شفافیت اور رسائی کے حقوق کی خلاف ورزی کی۔

مزید کیس اسٹڈیز دریافت کرنا چاہتے ہیں؟ ان وسائل کو دیکھیں:

🚨 ان کیس اسٹڈیز کے بارے میں سوچیں جو آپ نے دیکھے ہیں - کیا آپ نے اپنی زندگی میں اسی طرح کے اخلاقی چیلنج کا تجربہ کیا یا متاثر ہوئے؟ کیا آپ اس سیکشن میں زیر بحث کسی اخلاقی چیلنج کو ظاہر کرنے والے کم از کم ایک اور کیس اسٹڈی کے بارے میں سوچ سکتے ہیں؟

اطلاقی اخلاقیات

ہم نے اخلاقیات کے تصورات، چیلنجز، اور حقیقی دنیا کے سیاق و سباق میں کیس اسٹڈیز کے بارے میں بات کی۔ لیکن ہم اپنے منصوبوں میں اخلاقی اصولوں اور طریقوں کو لاگو کرنے کا آغاز کیسے کریں؟ اور ہم بہتر حکمرانی کے لیے ان طریقوں کو عملی جامہ پہنانے کے لیے کیا کر سکتے ہیں؟ آئیے کچھ حقیقی دنیا کے حل تلاش کریں:

1. پیشہ ورانہ ضابطے

پیشہ ورانہ ضابطے تنظیموں کو اپنے اخلاقی اصولوں اور مشن کے بیان کی حمایت کرنے کے لیے اراکین کو "ترغیب دینے" کا ایک آپشن پیش کرتے ہیں۔ ضابطے پیشہ ورانہ رویے کے لیے اخلاقی رہنما خطوط ہیں، جو ملازمین یا اراکین کو ایسے فیصلے کرنے میں مدد دیتے ہیں جو ان کی تنظیم کے اصولوں کے مطابق ہوں۔ یہ صرف اراکین کی رضاکارانہ تعمیل کے طور پر اچھے ہیں؛ تاہم، بہت سی تنظیمیں اراکین کی تعمیل کو متحرک کرنے کے لیے اضافی انعامات اور سزائیں پیش کرتی ہیں۔

مثالیں شامل ہیں:

🚨 کیا آپ کسی پیشہ ور انجینئرنگ یا ڈیٹا سائنس تنظیم کے رکن ہیں؟ ان کی ویب سائٹ کو دیکھیں کہ آیا وہ پیشہ ورانہ اخلاقیات کا ضابطہ بیان کرتے ہیں۔ یہ ان کے اخلاقی اصولوں کے بارے میں کیا کہتا ہے؟ وہ اراکین کو ضابطے پر عمل کرنے کے لیے کیسے "ترغیب دے رہے ہیں"؟

2. اخلاقیات کی چیک لسٹس

جبکہ پیشہ ورانہ ضابطے پریکٹیشنرز سے مطلوبہ اخلاقی رویے کی وضاحت کرتے ہیں، وہ نفاذ میں معلوم حدود رکھتے ہیں، خاص طور پر بڑے پیمانے پر منصوبوں میں۔ اس کے بجائے، بہت سے ڈیٹا سائنس ماہرین چیک لسٹس کی وکالت کرتے ہیں، جو اصولوں کو زیادہ تعیناتی اور قابل عمل طریقوں میں عملی جامہ پہنانے میں مدد دیتے ہیں۔

چیک لسٹس سوالات کو "ہاں/نہیں" کاموں میں تبدیل کرتی ہیں جنہیں عملی جامہ پہنایا جا سکتا ہے، انہیں معیاری پروڈکٹ ریلیز ورک فلو کے حصے کے طور پر ٹریک کرنے کی اجازت دیتی ہیں۔

مثالیں شامل ہیں:

3. اخلاقیات کے ضوابط

اخلاقیات مشترکہ اقدار کی وضاحت کرنے اور رضاکارانہ طور پر صحیح کام کرنے کے بارے میں ہیں۔ تعمیل اس بارے میں ہے کہ قانون کی پیروی اگر اور جہاں بیان کی گئی ہو۔ حکمرانی وسیع پیمانے پر ان تمام طریقوں کا احاطہ کرتی ہے جن کے ذریعے تنظیمیں اخلاقی اصولوں کو نافذ کرنے اور قائم کردہ قوانین کی تعمیل کرنے کے لیے کام کرتی ہیں۔

آج، حکمرانی تنظیموں کے اندر دو شکلیں اختیار کرتی ہے۔ پہلے، یہ اخلاقی AI اصولوں کی وضاحت کرنے اور تنظیم میں تمام AI سے متعلق منصوبوں میں اپنانے کو عملی جامہ پہنانے کے طریقوں کو قائم کرنے کے بارے میں ہے۔ دوسرا، یہ ان تمام حکومت کے مقرر کردہ ڈیٹا تحفظ کے ضوابط کی تعمیل کے بارے میں ہے جن علاقوں میں یہ کام کرتی ہے۔

ڈیٹا تحفظ اور پرائیویسی ضوابط کی مثالیں:

🚨 یورپی یونین کی طرف سے بیان کردہ GDPR (جنرل ڈیٹا پروٹیکشن ریگولیشن) آج ڈیٹا پرائیویسی کے سب سے زیادہ اثر انگیز ضوابط میں سے ایک ہے۔ کیا آپ جانتے ہیں کہ یہ 8 صارف کے حقوق بھی بیان کرتا ہے تاکہ شہریوں کی ڈیجیٹل پرائیویسی اور ذاتی ڈیٹا کی حفاظت کی جا سکے؟ ان کے بارے میں جانیں کہ یہ کیا ہیں اور کیوں اہم ہیں۔

4. اخلاقیات کی ثقافت

نوٹ کریں کہ تعمیل (قانون کے "حرف" کو پورا کرنے کے لیے کافی کرنا) اور نظامی مسائل (جیسے، سختی، معلوماتی عدم توازن، اور تقسیماتی ناانصافی) کو حل کرنے کے درمیان ایک غیر محسوس خلا موجود ہے جو AI کے ہتھیار بنانے کو تیز کر سکتا ہے۔

بعد والے کو اخلاقیات کی ثقافتوں کی وضاحت کے لیے تعاون پر مبنی نقطہ نظر کی ضرورت ہوتی ہے جو صنعت میں تنظیموں کے درمیان جذباتی تعلقات اور مستقل مشترکہ اقدار کو تشکیل دیتے ہیں۔ اس کے لیے تنظیموں میں زیادہ باضابطہ ڈیٹا اخلاقیات کی ثقافتیں بنانے کی ضرورت ہوتی ہے - جس سے کوئی بھی اینڈن کورڈ کھینچ سکتا ہے (عمل کے ابتدائی مرحلے میں اخلاقیات کے خدشات کو اٹھانے کے لیے) اور اخلاقی تشخیصات (جیسے، بھرتی میں) کو AI منصوبوں میں ٹیم کی تشکیل کے لیے ایک بنیادی معیار بنانا۔


لیکچر کے بعد کوئز 🎯

جائزہ اور خود مطالعہ

کورسز اور کتابیں اخلاقیات کے بنیادی تصورات اور چیلنجز کو سمجھنے میں مدد کرتی

اسائنمنٹ

ڈیٹا اخلاقیات کا کیس اسٹڈی لکھیں


ڈسکلیمر:
یہ دستاویز AI ترجمہ سروس Co-op Translator کا استعمال کرتے ہوئے ترجمہ کی گئی ہے۔ ہم درستگی کے لیے کوشش کرتے ہیں، لیکن براہ کرم آگاہ رہیں کہ خودکار ترجمے میں غلطیاں یا غیر درستیاں ہو سکتی ہیں۔ اصل دستاویز کو اس کی اصل زبان میں مستند ذریعہ سمجھا جانا چاہیے۔ اہم معلومات کے لیے، پیشہ ور انسانی ترجمہ کی سفارش کی جاتی ہے۔ ہم اس ترجمے کے استعمال سے پیدا ہونے والی کسی بھی غلط فہمی یا غلط تشریح کے ذمہ دار نہیں ہیں۔