You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/fa/1-Introduction/02-ethics/README.md

42 KiB

مقدمه‌ای بر اخلاق داده‌ها

طرح‌نگاری توسط (@sketchthedocs)
اخلاق داده‌ها - طرح‌نگاری توسط @nitya

ما همه شهروندان داده‌ای هستیم که در دنیای داده‌محور زندگی می‌کنیم.

روندهای بازار نشان می‌دهند که تا سال ۲۰۲۲، یک‌سوم سازمان‌های بزرگ داده‌های خود را از طریق بازارها و مبادلات آنلاین خرید و فروش خواهند کرد. به عنوان توسعه‌دهندگان اپلیکیشن، ما راحت‌تر و ارزان‌تر می‌توانیم بینش‌های مبتنی بر داده و اتوماسیون مبتنی بر الگوریتم را در تجربه‌های روزمره کاربران ادغام کنیم. اما با گسترش هوش مصنوعی، باید آسیب‌های احتمالی ناشی از سلاح‌سازی این الگوریتم‌ها در مقیاس بزرگ را نیز درک کنیم.

روندها همچنین نشان می‌دهند که تا سال ۲۰۲۵ بیش از ۱۸۰ زتابایت داده تولید و مصرف خواهیم کرد. به عنوان دانشمندان داده، این دسترسی بی‌سابقه‌ای به داده‌های شخصی به ما می‌دهد. این به ما امکان می‌دهد پروفایل‌های رفتاری کاربران را بسازیم و تصمیم‌گیری را به گونه‌ای تحت تأثیر قرار دهیم که توهم انتخاب آزاد ایجاد کند، در حالی که ممکن است کاربران را به سمت نتایج دلخواه ما سوق دهد. این موضوع همچنین سوالات گسترده‌تری در مورد حریم خصوصی داده‌ها و حفاظت از کاربران مطرح می‌کند.

اخلاق داده‌ها اکنون به عنوان محافظ‌های ضروری برای علم داده و مهندسی عمل می‌کنند، و به ما کمک می‌کنند آسیب‌های احتمالی و پیامدهای ناخواسته ناشی از اقدامات مبتنی بر داده‌های خود را به حداقل برسانیم. چرخه هیجان گارتنر برای هوش مصنوعی روندهای مرتبط با اخلاق دیجیتال، هوش مصنوعی مسئولانه، و حاکمیت هوش مصنوعی را به عنوان عوامل کلیدی برای روندهای بزرگ‌تر پیرامون دموکراتیزه‌سازی و صنعتی‌سازی هوش مصنوعی شناسایی می‌کند.

چرخه هیجان گارتنر برای هوش مصنوعی - ۲۰۲۰

در این درس، به حوزه جذاب اخلاق داده‌ها خواهیم پرداخت - از مفاهیم و چالش‌های اصلی گرفته تا مطالعات موردی و مفاهیم کاربردی هوش مصنوعی مانند حاکمیت - که به ایجاد فرهنگ اخلاقی در تیم‌ها و سازمان‌هایی که با داده‌ها و هوش مصنوعی کار می‌کنند کمک می‌کند.

آزمون پیش از درس 🎯

تعاریف پایه

بیایید با درک اصطلاحات پایه شروع کنیم.

کلمه "اخلاق" از کلمه یونانی "ethikos" (و ریشه آن "ethos") به معنای شخصیت یا طبیعت اخلاقی گرفته شده است.

اخلاق درباره ارزش‌های مشترک و اصول اخلاقی است که رفتار ما در جامعه را هدایت می‌کنند. اخلاق بر اساس قوانین نیست، بلکه بر اساس هنجارهای پذیرفته‌شده عمومی درباره اینکه چه چیزی "درست در مقابل غلط" است، بنا شده است. با این حال، ملاحظات اخلاقی می‌توانند بر ابتکارات حاکمیت شرکتی و مقررات دولتی تأثیر بگذارند که انگیزه‌های بیشتری برای رعایت ایجاد می‌کنند.

اخلاق داده‌ها یک شاخه جدید از اخلاق است که "مشکلات اخلاقی مرتبط با داده‌ها، الگوریتم‌ها و شیوه‌های مربوطه را مطالعه و ارزیابی می‌کند". در اینجا، "داده‌ها" بر اقدامات مرتبط با تولید، ضبط، مدیریت، پردازش، انتشار، اشتراک‌گذاری و استفاده تمرکز دارد، "الگوریتم‌ها" بر هوش مصنوعی، عوامل، یادگیری ماشین و ربات‌ها تمرکز دارد، و "شیوه‌ها" بر موضوعاتی مانند نوآوری مسئولانه، برنامه‌نویسی، هک کردن، و کدهای اخلاقی تمرکز دارد.

اخلاق کاربردی کاربرد عملی ملاحظات اخلاقی است. این فرآیند بررسی فعالانه مسائل اخلاقی در زمینه اقدامات، محصولات و فرآیندهای واقعی و اتخاذ اقدامات اصلاحی برای اطمینان از هم‌راستایی آنها با ارزش‌های اخلاقی تعریف‌شده ما است.

فرهنگ اخلاقی درباره عملیاتی کردن اخلاق کاربردی است تا اطمینان حاصل شود که اصول و شیوه‌های اخلاقی ما به طور مداوم و مقیاس‌پذیر در سراسر سازمان پذیرفته می‌شوند. فرهنگ‌های اخلاقی موفق اصول اخلاقی سازمانی را تعریف می‌کنند، انگیزه‌های معناداری برای رعایت ارائه می‌دهند، و هنجارهای اخلاقی را با تشویق و تقویت رفتارهای مطلوب در هر سطح سازمان تقویت می‌کنند.

مفاهیم اخلاقی

در این بخش، مفاهیمی مانند ارزش‌های مشترک (اصول) و چالش‌های اخلاقی (مشکلات) برای اخلاق داده‌ها را بررسی خواهیم کرد - و مطالعات موردی را بررسی می‌کنیم که به شما کمک می‌کنند این مفاهیم را در زمینه‌های واقعی درک کنید.

1. اصول اخلاقی

هر استراتژی اخلاق داده‌ها با تعریف اصول اخلاقی آغاز می‌شود - "ارزش‌های مشترک" که رفتارهای قابل قبول را توصیف می‌کنند و اقدامات مطابق را در پروژه‌های داده و هوش مصنوعی ما هدایت می‌کنند. شما می‌توانید این اصول را در سطح فردی یا تیمی تعریف کنید. با این حال، بیشتر سازمان‌های بزرگ این اصول را در قالب یک بیانیه مأموریت یا چارچوب هوش مصنوعی اخلاقی در سطح شرکتی تعریف می‌کنند و به طور مداوم در سراسر تیم‌ها اجرا می‌کنند.

مثال: بیانیه مأموریت هوش مصنوعی مسئولانه مایکروسافت می‌گوید: "ما متعهد به پیشرفت هوش مصنوعی بر اساس اصول اخلاقی هستیم که انسان‌ها را در اولویت قرار می‌دهد" - و ۶ اصل اخلاقی را در چارچوب زیر شناسایی می‌کند:

هوش مصنوعی مسئولانه در مایکروسافت

بیایید این اصول را به طور مختصر بررسی کنیم. شفافیت و پاسخگویی ارزش‌های بنیادی هستند که سایر اصول بر اساس آنها بنا شده‌اند - بنابراین از اینجا شروع می‌کنیم:

  • پاسخگویی متخصصان را مسئول عملیات داده و هوش مصنوعی خود و رعایت این اصول اخلاقی می‌کند.
  • شفافیت اطمینان می‌دهد که اقدامات داده و هوش مصنوعی برای کاربران قابل فهم هستند و توضیح می‌دهند که چه چیزی و چرا پشت تصمیمات قرار دارد.
  • عدالت - بر اطمینان از رفتار عادلانه هوش مصنوعی با همه افراد تمرکز دارد و به هرگونه تعصب اجتماعی-فنی سیستماتیک یا ضمنی در داده‌ها و سیستم‌ها می‌پردازد.
  • قابلیت اطمینان و ایمنی - اطمینان می‌دهد که هوش مصنوعی به طور ثابت با ارزش‌های تعریف‌شده رفتار می‌کند و آسیب‌های احتمالی یا پیامدهای ناخواسته را به حداقل می‌رساند.
  • حریم خصوصی و امنیت - درباره درک منشأ داده‌ها و ارائه حریم خصوصی داده‌ها و حفاظت‌های مرتبط به کاربران است.
  • شمول‌پذیری - درباره طراحی راه‌حل‌های هوش مصنوعی با قصد، و تطبیق آنها برای پاسخگویی به طیف گسترده‌ای از نیازها و قابلیت‌های انسانی است.

🚨 به این فکر کنید که بیانیه مأموریت اخلاق داده‌های شما چه می‌تواند باشد. چارچوب‌های هوش مصنوعی اخلاقی از سازمان‌های دیگر را بررسی کنید - اینجا نمونه‌هایی از IBM، Google، و Facebook وجود دارد. چه ارزش‌های مشترکی دارند؟ این اصول چگونه به محصول هوش مصنوعی یا صنعتی که در آن فعالیت می‌کنند مرتبط هستند؟

2. چالش‌های اخلاقی

پس از تعریف اصول اخلاقی، گام بعدی ارزیابی اقدامات داده و هوش مصنوعی ما برای بررسی هم‌راستایی آنها با این ارزش‌های مشترک است. به اقدامات خود در دو دسته فکر کنید: جمع‌آوری داده‌ها و طراحی الگوریتم.

در جمع‌آوری داده‌ها، اقدامات احتمالاً شامل داده‌های شخصی یا اطلاعات قابل شناسایی شخصی (PII) برای افراد زنده قابل شناسایی خواهد بود. این شامل موارد متنوعی از داده‌های غیرشخصی است که به طور جمعی یک فرد را شناسایی می‌کنند. چالش‌های اخلاقی می‌توانند به موضوعاتی مانند حریم خصوصی داده‌ها، مالکیت داده‌ها، و موضوعات مرتبط مانند رضایت آگاهانه و حقوق مالکیت معنوی برای کاربران مرتبط باشند.

در طراحی الگوریتم، اقدامات شامل جمع‌آوری و مدیریت مجموعه داده‌ها و سپس استفاده از آنها برای آموزش و استقرار مدل‌های داده‌ای خواهد بود که نتایج را پیش‌بینی می‌کنند یا تصمیمات را در زمینه‌های واقعی خودکار می‌کنند. چالش‌های اخلاقی می‌توانند از تعصب مجموعه داده‌ها، مشکلات کیفیت داده‌ها، بی‌عدالتی و نمایش نادرست در الگوریتم‌ها ناشی شوند - از جمله برخی مسائل که ماهیت سیستماتیک دارند.

در هر دو مورد، چالش‌های اخلاقی مناطقی را برجسته می‌کنند که اقدامات ما ممکن است با ارزش‌های مشترک ما در تضاد باشند. برای شناسایی، کاهش، به حداقل رساندن یا حذف این نگرانی‌ها - باید سوالات اخلاقی "بله/خیر" مرتبط با اقدامات خود را بپرسیم و سپس اقدامات اصلاحی لازم را انجام دهیم. بیایید نگاهی به برخی چالش‌های اخلاقی و سوالات اخلاقی مرتبط با آنها بیندازیم:

2.1 مالکیت داده‌ها

جمع‌آوری داده‌ها اغلب شامل داده‌های شخصی است که می‌تواند موضوعات داده‌ای را شناسایی کند. مالکیت داده‌ها درباره کنترل و حقوق کاربران مرتبط با ایجاد، پردازش، و انتشار داده‌ها است.

سوالات اخلاقی که باید پرسیده شوند:

  • چه کسی مالک داده‌ها است؟ (کاربر یا سازمان)
  • چه حقوقی برای موضوعات داده‌ای وجود دارد؟ (مانند دسترسی، حذف، قابلیت حمل)
  • چه حقوقی برای سازمان‌ها وجود دارد؟ (مانند اصلاح نظرات مخرب کاربران)

2.2 رضایت آگاهانه

رضایت آگاهانه به عمل موافقت کاربران با یک اقدام (مانند جمع‌آوری داده‌ها) با درک کامل حقایق مرتبط از جمله هدف، خطرات احتمالی، و جایگزین‌ها اشاره دارد.

سوالاتی که باید بررسی شوند:

  • آیا کاربر (موضوع داده‌ای) اجازه جمع‌آوری و استفاده از داده‌ها را داده است؟
  • آیا کاربر هدف جمع‌آوری داده‌ها را درک کرده است؟
  • آیا کاربر خطرات احتمالی ناشی از مشارکت خود را درک کرده است؟

2.3 مالکیت معنوی

مالکیت معنوی به آفرینش‌های غیرملموس ناشی از ابتکار انسانی اشاره دارد که ممکن است ارزش اقتصادی برای افراد یا کسب‌وکارها داشته باشد.

سوالاتی که باید بررسی شوند:

  • آیا داده‌های جمع‌آوری‌شده ارزش اقتصادی برای یک کاربر یا کسب‌وکار داشته‌اند؟
  • آیا کاربر مالکیت معنوی در اینجا دارد؟
  • آیا سازمان مالکیت معنوی در اینجا دارد؟
  • اگر این حقوق وجود دارند، چگونه آنها را محافظت می‌کنیم؟

2.4 حریم خصوصی داده‌ها

حریم خصوصی داده‌ها یا حریم اطلاعات به حفظ حریم خصوصی کاربران و حفاظت از هویت کاربران با توجه به اطلاعات قابل شناسایی شخصی اشاره دارد.

سوالاتی که باید بررسی شوند:

  • آیا داده‌های (شخصی) کاربران در برابر هک‌ها و نشت‌ها ایمن هستند؟
  • آیا داده‌های کاربران فقط برای کاربران و زمینه‌های مجاز قابل دسترسی هستند؟
  • آیا ناشناس بودن کاربران هنگام اشتراک‌گذاری یا انتشار داده‌ها حفظ می‌شود؟
  • آیا می‌توان یک کاربر را از مجموعه داده‌های ناشناس شناسایی کرد؟

2.5 حق فراموش شدن

حق فراموش شدن یا حق حذف حفاظت اضافی از داده‌های شخصی را برای کاربران فراهم می‌کند. به طور خاص، این حق به کاربران اجازه می‌دهد درخواست حذف یا حذف داده‌های شخصی از جستجوهای اینترنتی و مکان‌های دیگر را تحت شرایط خاص بدهند - و به آنها امکان شروع تازه‌ای آنلاین بدون اینکه اقدامات گذشته علیه آنها استفاده شود را می‌دهد.

سوالاتی که باید بررسی شوند:

  • آیا سیستم اجازه می‌دهد موضوعات داده‌ای درخواست حذف کنند؟
  • آیا باید لغو رضایت کاربران باعث حذف خودکار شود؟
  • آیا داده‌ها بدون رضایت یا به روش‌های غیرقانونی جمع‌آوری شده‌اند؟
  • آیا ما با مقررات دولتی برای حریم خصوصی داده‌ها مطابقت داریم؟

2.6 تعصب مجموعه داده‌ها

تعصب مجموعه داده‌ها یا تعصب جمع‌آوری درباره انتخاب یک زیرمجموعه غیرنماینده از داده‌ها برای توسعه الگوریتم است که ممکن است نتایج ناعادلانه‌ای برای گروه‌های مختلف ایجاد کند. انواع تعصب شامل تعصب انتخاب یا نمونه‌گیری، تعصب داوطلبانه، و تعصب ابزار است.

سوالاتی که باید بررسی شوند:

  • آیا ما یک مجموعه نماینده از موضوعات داده‌ای را انتخاب کرده‌ایم؟
  • آیا مجموعه داده‌های جمع‌آوری‌شده یا مدیریت‌شده خود را برای انواع مختلف تعصب آزمایش کرده‌ایم؟
  • آیا می‌توانیم هرگونه تعصب کشف‌شده را کاهش دهیم یا حذف کنیم؟

2.7 کیفیت داده‌ها

کیفیت داده‌ها به اعتبار مجموعه داده‌های مدیریت‌شده برای توسعه الگوریتم‌های ما اشاره دارد، و بررسی می‌کند که آیا ویژگی‌ها و رکوردها الزامات سطح دقت و سازگاری مورد نیاز برای هدف هوش مصنوعی ما را برآورده می‌کنند.

سوالاتی که باید بررسی شوند:

  • آیا ما ویژگی‌های معتبر برای مورد استفاده خود را جمع‌آوری کرده‌ایم؟
  • آیا داده‌ها به طور سازگار از منابع مختلف داده جمع‌آوری شده‌اند؟
  • آیا مجموعه داده برای شرایط یا سناریوهای مختلف کامل است؟
  • آیا اطلاعات جمع‌آوری‌شده به طور دقیق واقعیت را منعکس می‌کنند؟

2.8 عدالت الگوریتم

Algorithm Fairness بررسی می‌کند که آیا طراحی الگوریتم به طور سیستماتیک علیه زیرگروه‌های خاصی از افراد داده تبعیض قائل می‌شود و منجر به آسیب‌های احتمالی در تخصیص منابع (جایی که منابع از آن گروه دریغ می‌شود) و کیفیت خدمات (جایی که هوش مصنوعی برای برخی زیرگروه‌ها به اندازه دیگران دقیق نیست) می‌شود.

سؤالاتی که باید در اینجا بررسی شوند:

  • آیا دقت مدل را برای زیرگروه‌ها و شرایط متنوع ارزیابی کرده‌ایم؟
  • آیا سیستم را برای آسیب‌های احتمالی (مثلاً کلیشه‌سازی) بررسی کرده‌ایم؟
  • آیا می‌توانیم داده‌ها را بازبینی کنیم یا مدل‌ها را دوباره آموزش دهیم تا آسیب‌های شناسایی‌شده کاهش یابد؟

منابعی مانند چک‌لیست‌های عدالت در هوش مصنوعی را بررسی کنید تا اطلاعات بیشتری کسب کنید.

2.9 تحریف داده‌ها

تحریف داده‌ها به این موضوع می‌پردازد که آیا ما بینش‌های حاصل از داده‌های گزارش‌شده صادقانه را به شکلی فریبنده برای حمایت از یک روایت دلخواه منتقل می‌کنیم.

سؤالاتی که باید در اینجا بررسی شوند:

  • آیا داده‌های ناقص یا نادرست را گزارش می‌کنیم؟
  • آیا داده‌ها را به شکلی تجسم می‌کنیم که منجر به نتیجه‌گیری‌های گمراه‌کننده شود؟
  • آیا از تکنیک‌های آماری انتخابی برای دستکاری نتایج استفاده می‌کنیم؟
  • آیا توضیحات جایگزینی وجود دارد که ممکن است نتیجه متفاوتی ارائه دهد؟

2.10 توهم انتخاب آزاد

توهم انتخاب آزاد زمانی رخ می‌دهد که "معماری‌های انتخاب" سیستم از الگوریتم‌های تصمیم‌گیری استفاده می‌کنند تا افراد را به سمت یک نتیجه دلخواه سوق دهند، در حالی که به نظر می‌رسد به آن‌ها گزینه‌ها و کنترل داده شده است. این الگوهای تاریک می‌توانند به کاربران آسیب‌های اجتماعی و اقتصادی وارد کنند. از آنجا که تصمیمات کاربران بر پروفایل‌های رفتاری تأثیر می‌گذارد، این اقدامات ممکن است انتخاب‌های آینده را تقویت یا گسترش دهند.

سؤالاتی که باید در اینجا بررسی شوند:

  • آیا کاربر پیامدهای انتخاب خود را درک کرده است؟
  • آیا کاربر از گزینه‌های (جایگزین) و مزایا و معایب هر یک آگاه بوده است؟
  • آیا کاربر می‌تواند یک انتخاب خودکار یا تحت تأثیر را بعداً معکوس کند؟

3. مطالعات موردی

برای قرار دادن این چالش‌های اخلاقی در زمینه‌های واقعی، بررسی مطالعات موردی که آسیب‌ها و پیامدهای احتمالی برای افراد و جامعه را نشان می‌دهند، زمانی که این نقض‌های اخلاقی نادیده گرفته می‌شوند، مفید است.

در اینجا چند مثال آورده شده است:

چالش اخلاقی مطالعه موردی
رضایت آگاهانه 1972 - مطالعه سیفلیس توسکیگی - به مردان آفریقایی-آمریکایی که در این مطالعه شرکت کردند وعده مراقبت پزشکی رایگان داده شد، اما توسط محققان فریب داده شدند که آن‌ها را از تشخیص بیماری یا دسترسی به درمان مطلع نکردند. بسیاری از شرکت‌کنندگان جان خود را از دست دادند و شرکا یا فرزندان آن‌ها تحت تأثیر قرار گرفتند؛ این مطالعه 40 سال ادامه داشت.
حریم خصوصی داده‌ها 2007 - جایزه داده‌های نتفلیکس شامل ارائه 10 میلیون رتبه‌بندی ناشناس فیلم از 50 هزار مشتری به محققان برای بهبود الگوریتم‌های توصیه بود. با این حال، محققان توانستند داده‌های ناشناس را با داده‌های شناسایی‌شده شخصی در مجموعه داده‌های خارجی (مانند نظرات IMDb) مرتبط کنند و عملاً برخی از مشترکان نتفلیکس را "غیرناشناس" کنند.
سوگیری در جمع‌آوری داده‌ها 2013 - شهر بوستون اپلیکیشن Street Bump را توسعه داد که به شهروندان اجازه می‌داد چاله‌ها را گزارش کنند و داده‌های بهتری برای تعمیر جاده‌ها به شهر ارائه می‌داد. با این حال، افراد با درآمد پایین‌تر دسترسی کمتری به خودرو و تلفن داشتند، که مشکلات جاده‌ای آن‌ها را در این اپلیکیشن نامرئی می‌کرد. توسعه‌دهندگان با دانشگاهیان همکاری کردند تا مسائل مربوط به دسترسی عادلانه و شکاف‌های دیجیتال را برای عدالت حل کنند.
عدالت الگوریتمی 2018 - مطالعه Gender Shades از MIT دقت محصولات طبقه‌بندی جنسیت هوش مصنوعی را ارزیابی کرد و شکاف‌هایی در دقت برای زنان و افراد رنگین‌پوست نشان داد. یک کارت اعتباری اپل در سال 2019 به نظر می‌رسید که به زنان اعتبار کمتری نسبت به مردان ارائه می‌دهد. هر دو مثال مشکلات سوگیری الگوریتمی را نشان می‌دهند که منجر به آسیب‌های اجتماعی-اقتصادی می‌شود.
تحریف داده‌ها 2020 - وزارت بهداشت جورجیا نمودارهای COVID-19 را منتشر کرد که به نظر می‌رسید شهروندان را در مورد روند موارد تأییدشده با ترتیب غیرزمانی محور x گمراه می‌کند. این مثال تحریف از طریق ترفندهای تجسم داده‌ها را نشان می‌دهد.
توهم انتخاب آزاد 2020 - اپلیکیشن آموزشی ABCmouse با پرداخت 10 میلیون دلار برای حل شکایت FTC موافقت کرد، جایی که والدین مجبور به پرداخت اشتراک‌هایی شدند که نمی‌توانستند لغو کنند. این مثال الگوهای تاریک در معماری‌های انتخاب را نشان می‌دهد که کاربران را به سمت انتخاب‌های بالقوه مضر سوق می‌دهد.
حریم خصوصی داده‌ها و حقوق کاربران 2021 - نقص داده‌های فیسبوک داده‌های 530 میلیون کاربر را افشا کرد و منجر به تسویه 5 میلیارد دلاری با FTC شد. با این حال، فیسبوک از اطلاع‌رسانی به کاربران در مورد این نقص خودداری کرد و حقوق کاربران در مورد شفافیت داده‌ها و دسترسی را نقض کرد.

می‌خواهید مطالعات موردی بیشتری را بررسی کنید؟ این منابع را بررسی کنید:

🚨 به مطالعات موردی که دیده‌اید فکر کنید - آیا شما تجربه یا تأثیر مشابهی از یک چالش اخلاقی در زندگی خود داشته‌اید؟ آیا می‌توانید حداقل یک مطالعه موردی دیگر را که یکی از چالش‌های اخلاقی مورد بحث در این بخش را نشان می‌دهد، به یاد بیاورید؟

اخلاق کاربردی

ما درباره مفاهیم اخلاقی، چالش‌ها و مطالعات موردی در زمینه‌های واقعی صحبت کردیم. اما چگونه می‌توانیم اصول و شیوه‌های اخلاقی را در پروژه‌های خود اعمال کنیم؟ و چگونه می‌توانیم این شیوه‌ها را برای حاکمیت بهتر عملیاتی کنیم؟ بیایید برخی از راه‌حل‌های واقعی را بررسی کنیم:

1. کدهای حرفه‌ای

کدهای حرفه‌ای یک گزینه برای سازمان‌ها هستند تا اعضای خود را به حمایت از اصول اخلاقی و بیانیه مأموریت خود "تشویق" کنند. کدها راهنمای اخلاقی برای رفتار حرفه‌ای هستند و به کارکنان یا اعضا کمک می‌کنند تصمیماتی بگیرند که با اصول سازمانشان همسو باشد. این کدها تنها به اندازه تعهد داوطلبانه اعضا مؤثر هستند؛ با این حال، بسیاری از سازمان‌ها پاداش‌ها و مجازات‌های اضافی برای انگیزه‌بخشی به اعضا ارائه می‌دهند.

مثال‌ها شامل:

🚨 آیا شما عضو یک سازمان حرفه‌ای مهندسی یا علم داده هستید؟ سایت آن‌ها را بررسی کنید تا ببینید آیا کد اخلاق حرفه‌ای تعریف کرده‌اند. این کد درباره اصول اخلاقی آن‌ها چه می‌گوید؟ چگونه اعضا را به پیروی از کد تشویق می‌کنند؟

2. چک‌لیست‌های اخلاقی

در حالی که کدهای حرفه‌ای رفتار اخلاقی مورد نیاز را تعریف می‌کنند، آن‌ها محدودیت‌های شناخته‌شده‌ای در اجرا دارند، به‌ویژه در پروژه‌های بزرگ. در عوض، بسیاری از کارشناسان علم داده از چک‌لیست‌ها حمایت می‌کنند که می‌توانند اصول را به شیوه‌ها به روش‌های قطعی‌تر و عملی‌تر متصل کنند.

چک‌لیست‌ها سؤالات را به وظایف "بله/خیر" تبدیل می‌کنند که می‌توانند عملیاتی شوند و به عنوان بخشی از جریان‌های کاری استاندارد انتشار محصول پیگیری شوند.

مثال‌ها شامل:

3. مقررات اخلاقی

اخلاق درباره تعریف ارزش‌های مشترک و انجام کار درست به صورت داوطلبانه است. انطباق درباره پیروی از قانون در صورت تعریف است. حاکمیت به طور کلی شامل تمام روش‌هایی است که سازمان‌ها برای اجرای اصول اخلاقی و رعایت قوانین موجود عمل می‌کنند.

امروزه، حاکمیت در سازمان‌ها دو شکل دارد. اول، تعریف اصول هوش مصنوعی اخلاقی و ایجاد شیوه‌هایی برای عملیاتی کردن پذیرش در تمام پروژه‌های مرتبط با هوش مصنوعی در سازمان. دوم، رعایت تمام مقررات حفاظت از داده‌ها که توسط دولت‌ها برای مناطقی که در آن فعالیت می‌کنند، تعریف شده است.

مثال‌هایی از مقررات حفاظت از داده‌ها و حریم خصوصی:

🚨 اتحادیه اروپا مقررات عمومی حفاظت از داده‌ها (GDPR) را تعریف کرده است که یکی از تأثیرگذارترین مقررات حریم خصوصی داده‌ها در جهان است. آیا می‌دانستید که این مقررات 8 حق کاربر را برای حفاظت از حریم خصوصی دیجیتال و داده‌های شخصی شهروندان تعریف می‌کند؟ درباره این حقوق و اهمیت آن‌ها بیشتر بیاموزید.

4. فرهنگ اخلاقی

توجه داشته باشید که شکاف ناملموسی بین انطباق (انجام کافی برای رعایت "حرف قانون") و پرداختن به مسائل سیستماتیک (مانند سخت‌شدن، عدم تقارن اطلاعات و نابرابری توزیعی) وجود دارد که می‌تواند تسریع در تسلیحاتی‌سازی هوش مصنوعی را به همراه داشته باشد.

دومی نیازمند رویکردهای مشارکتی برای تعریف فرهنگ‌های اخلاقی است که ارتباطات عاطفی و ارزش‌های مشترک سازگار را در سراسر سازمان‌ها در صنعت ایجاد می‌کند. این امر نیازمند فرهنگ‌های اخلاق داده رسمی‌تر در سازمان‌ها است - به طوری که هر کسی بتواند طناب آندون را بکشد (برای مطرح کردن نگرانی‌های اخلاقی در اوایل فرآیند) و انجام ارزیابی‌های اخلاقی (مثلاً در استخدام) به یک معیار اصلی در تشکیل تیم در پروژه‌های هوش مصنوعی تبدیل شود.


آزمون پس از سخنرانی 🎯

مرور و مطالعه شخصی

دوره‌ها و کتاب‌ها به درک مفاهیم اصلی اخلاق و چالش‌ها کمک می‌کنند، در حالی که مطالعات موردی و ابزارها به شیوه‌های اخلاق کاربردی در زمینه‌های واقعی کمک می‌کنند. در اینجا چند منبع برای شروع آورده شده است:

تکلیف

نوشتن یک مطالعه موردی در اخلاق داده


سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما برای دقت تلاش می‌کنیم، لطفاً توجه داشته باشید که ترجمه‌های خودکار ممکن است شامل خطاها یا نادقتی‌هایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفه‌ای انسانی توصیه می‌شود. ما هیچ مسئولیتی در قبال سوءتفاهم‌ها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.