|
|
4 months ago | |
|---|---|---|
| .. | ||
| README.md | 4 months ago | |
| assignment.md | 5 months ago | |
README.md
مقدمهای بر اخلاق داده
![]() |
|---|
| اخلاق داده در علم داده - طرحنگاری توسط @nitya |
ما همه شهروندان دادهای هستیم که در دنیای دادهمحور زندگی میکنیم.
روندهای بازار نشان میدهند که تا سال ۲۰۲۲، یکسوم سازمانهای بزرگ دادههای خود را از طریق بازارها و مبادلات آنلاین خرید و فروش خواهند کرد. به عنوان توسعهدهندگان اپلیکیشن، ما راحتتر و ارزانتر میتوانیم بینشهای مبتنی بر داده و اتوماسیون مبتنی بر الگوریتم را در تجربههای روزمره کاربران ادغام کنیم. اما با گسترش هوش مصنوعی، باید آسیبهای احتمالی ناشی از سلاحسازی این الگوریتمها در مقیاس بزرگ را نیز درک کنیم.
روندها نشان میدهند که تا سال ۲۰۲۵، ما بیش از ۱۸۰ زتابایت داده تولید و مصرف خواهیم کرد. برای دانشمندان داده، این انفجار اطلاعات دسترسی بیسابقهای به دادههای شخصی و رفتاری فراهم میکند. این قدرت ایجاد پروفایلهای دقیق کاربران و تأثیرگذاری ظریف بر تصمیمگیریها را به همراه دارد—اغلب به گونهای که توهم انتخاب آزاد را تقویت میکند. در حالی که این میتواند کاربران را به سمت نتایج مطلوب هدایت کند، همچنین سوالات مهمی درباره حریم خصوصی دادهها، خودمختاری و مرزهای اخلاقی تأثیر الگوریتمی ایجاد میکند.
اخلاق داده اکنون به عنوان محافظهای ضروری برای علم داده و مهندسی عمل میکند، و به ما کمک میکند آسیبهای احتمالی و پیامدهای ناخواسته ناشی از اقدامات مبتنی بر داده را به حداقل برسانیم. چرخه هیجان گارتنر برای هوش مصنوعی روندهای مرتبط با اخلاق دیجیتال، هوش مصنوعی مسئولانه و حاکمیت هوش مصنوعی را به عنوان عوامل کلیدی برای روندهای بزرگتر پیرامون دموکراتیزهسازی و صنعتیسازی هوش مصنوعی شناسایی میکند.
در این درس، ما به بررسی حوزه جذاب اخلاق داده خواهیم پرداخت - از مفاهیم و چالشهای اصلی گرفته تا مطالعات موردی و مفاهیم کاربردی هوش مصنوعی مانند حاکمیت - که به ایجاد فرهنگ اخلاقی در تیمها و سازمانهایی که با داده و هوش مصنوعی کار میکنند کمک میکند.
آزمون پیش از درس 🎯
تعاریف پایه
بیایید با درک اصطلاحات پایه شروع کنیم.
کلمه "اخلاق" از کلمه یونانی "ethikos" (و ریشه آن "ethos") به معنای شخصیت یا طبیعت اخلاقی گرفته شده است.
اخلاق درباره ارزشهای مشترک و اصول اخلاقی است که رفتار ما در جامعه را هدایت میکنند. اخلاق بر اساس قوانین نیست بلکه بر اساس هنجارهای پذیرفتهشده عمومی درباره "درست در مقابل غلط" است. با این حال، ملاحظات اخلاقی میتوانند بر ابتکارات حاکمیت شرکتی و مقررات دولتی تأثیر بگذارند که انگیزههای بیشتری برای رعایت ایجاد میکنند.
اخلاق داده یک شاخه جدید از اخلاق است که "مشکلات اخلاقی مرتبط با دادهها، الگوریتمها و شیوههای مربوطه را مطالعه و ارزیابی میکند". در اینجا، "دادهها" بر اقدامات مرتبط با تولید، ضبط، مدیریت، پردازش، انتشار، اشتراکگذاری و استفاده تمرکز دارند، "الگوریتمها" بر هوش مصنوعی، عوامل، یادگیری ماشین و رباتها تمرکز دارند، و "شیوهها" بر موضوعاتی مانند نوآوری مسئولانه، برنامهنویسی، هک کردن و کدهای اخلاقی تمرکز دارند.
اخلاق کاربردی کاربرد عملی ملاحظات اخلاقی است. این فرآیند بررسی فعالانه مسائل اخلاقی در زمینه اقدامات، محصولات و فرآیندهای واقعی و اتخاذ اقدامات اصلاحی برای اطمینان از همراستایی آنها با ارزشهای اخلاقی تعریفشده ما است.
فرهنگ اخلاقی درباره عملیاتی کردن اخلاق کاربردی است تا اطمینان حاصل شود که اصول و شیوههای اخلاقی ما به طور مداوم و مقیاسپذیر در سراسر سازمان پذیرفته میشوند. فرهنگهای اخلاقی موفق اصول اخلاقی سازمانی را تعریف میکنند، انگیزههای معناداری برای رعایت ارائه میدهند و هنجارهای اخلاقی را با تشویق و تقویت رفتارهای مطلوب در هر سطح سازمان تقویت میکنند.
مفاهیم اخلاقی
در این بخش، ما مفاهیمی مانند ارزشهای مشترک (اصول) و چالشهای اخلاقی (مشکلات) برای اخلاق داده را بررسی خواهیم کرد - و مطالعات موردی را بررسی خواهیم کرد که به شما کمک میکنند این مفاهیم را در زمینههای واقعی درک کنید.
1. اصول اخلاقی
هر استراتژی اخلاق داده با تعریف اصول اخلاقی آغاز میشود - "ارزشهای مشترک" که رفتارهای قابل قبول را توصیف میکنند و اقدامات مطابق را در پروژههای داده و هوش مصنوعی ما هدایت میکنند. شما میتوانید این اصول را در سطح فردی یا تیمی تعریف کنید. با این حال، بیشتر سازمانهای بزرگ این اصول را در قالب بیانیه مأموریت یا چارچوب هوش مصنوعی اخلاقی در سطح شرکتی تعریف میکنند و به طور مداوم در سراسر تیمها اجرا میکنند.
مثال: بیانیه مأموریت هوش مصنوعی مسئولانه مایکروسافت میگوید: "ما متعهد به پیشرفت هوش مصنوعی بر اساس اصول اخلاقی هستیم که انسانها را در اولویت قرار میدهد" - و ۶ اصل اخلاقی را در چارچوب زیر شناسایی میکند:
بیایید این اصول را به طور مختصر بررسی کنیم. شفافیت و مسئولیتپذیری ارزشهای بنیادی هستند که سایر اصول بر اساس آنها ساخته شدهاند - بنابراین از اینجا شروع میکنیم:
- مسئولیتپذیری متخصصان را مسئول عملیات داده و هوش مصنوعی خود و رعایت این اصول اخلاقی میکند.
- شفافیت اطمینان میدهد که اقدامات داده و هوش مصنوعی برای کاربران قابل فهم (قابل تفسیر) هستند و توضیح میدهند که چه چیزی و چرا پشت تصمیمات قرار دارد.
- عدالت - بر اطمینان از رفتار عادلانه هوش مصنوعی با همه افراد تمرکز دارد و به هرگونه تعصب اجتماعی-فنی سیستماتیک یا ضمنی در دادهها و سیستمها میپردازد.
- قابلیت اطمینان و ایمنی - اطمینان میدهد که هوش مصنوعی به طور ثابت با ارزشهای تعریفشده رفتار میکند و آسیبهای احتمالی یا پیامدهای ناخواسته را به حداقل میرساند.
- حریم خصوصی و امنیت - درباره درک منشأ دادهها و ارائه حریم خصوصی داده و حفاظتهای مرتبط به کاربران است.
- شمولپذیری - درباره طراحی راهحلهای هوش مصنوعی با قصد، و تطبیق آنها برای پاسخگویی به طیف گستردهای از نیازها و قابلیتهای انسانی است.
🚨 به این فکر کنید که بیانیه مأموریت اخلاق داده شما چه میتواند باشد. چارچوبهای هوش مصنوعی اخلاقی از سازمانهای دیگر را بررسی کنید - اینجا نمونههایی از IBM، Google، و Facebook آورده شده است. چه ارزشهای مشترکی دارند؟ این اصول چگونه به محصول هوش مصنوعی یا صنعتی که در آن فعالیت میکنند مرتبط هستند؟
2. چالشهای اخلاقی
پس از تعریف اصول اخلاقی، گام بعدی ارزیابی اقدامات داده و هوش مصنوعی ما است تا ببینیم آیا با آن ارزشهای مشترک همراستا هستند یا خیر. به اقدامات خود در دو دسته فکر کنید: جمعآوری دادهها و طراحی الگوریتم.
در جمعآوری دادهها، اقدامات احتمالاً شامل دادههای شخصی یا اطلاعات قابل شناسایی شخصی (PII) برای افراد قابل شناسایی خواهد بود. این شامل موارد متنوعی از دادههای غیرشخصی است که به طور جمعی یک فرد را شناسایی میکنند. چالشهای اخلاقی میتوانند به موضوعاتی مانند حریم خصوصی دادهها، مالکیت دادهها و موضوعات مرتبط مانند رضایت آگاهانه و حقوق مالکیت معنوی برای کاربران مرتبط باشند.
در طراحی الگوریتم، اقدامات شامل جمعآوری و مدیریت مجموعه دادهها و سپس استفاده از آنها برای آموزش و استقرار مدلهای داده است که نتایج را پیشبینی میکنند یا تصمیمات را در زمینههای واقعی خودکار میکنند. چالشهای اخلاقی میتوانند از تعصب مجموعه دادهها، مشکلات کیفیت دادهها، بیعدالتی و نمایش نادرست در الگوریتمها ناشی شوند - از جمله برخی مسائل که ذاتاً سیستماتیک هستند.
در هر دو مورد، چالشهای اخلاقی مناطقی را برجسته میکنند که اقدامات ما ممکن است با ارزشهای مشترک ما در تضاد باشند. برای شناسایی، کاهش، به حداقل رساندن یا حذف این نگرانیها - باید سوالات اخلاقی "بله/خیر" مرتبط با اقدامات خود را بپرسیم و سپس اقدامات اصلاحی لازم را انجام دهیم. بیایید نگاهی به برخی چالشهای اخلاقی و سوالات اخلاقی که مطرح میکنند بیندازیم:
2.1 مالکیت دادهها
جمعآوری دادهها اغلب شامل دادههای شخصی است که میتواند افراد دادهشده را شناسایی کند. مالکیت دادهها درباره کنترل و حقوق کاربران مرتبط با ایجاد، پردازش و انتشار دادهها است.
سوالات اخلاقی که باید پرسیده شوند:
- چه کسی مالک دادهها است؟ (کاربر یا سازمان)
- چه حقوقی برای افراد دادهشده وجود دارد؟ (مثلاً دسترسی، حذف، قابلیت انتقال)
- چه حقوقی برای سازمانها وجود دارد؟ (مثلاً اصلاح نظرات مخرب کاربران)
2.2 رضایت آگاهانه
رضایت آگاهانه عمل موافقت کاربران با یک اقدام (مانند جمعآوری دادهها) با درک کامل حقایق مرتبط از جمله هدف، خطرات احتمالی و جایگزینها را تعریف میکند.
سوالاتی که باید بررسی شوند:
- آیا کاربر (فرد دادهشده) اجازه جمعآوری و استفاده از دادهها را داده است؟
- آیا کاربر هدف از جمعآوری دادهها را درک کرده است؟
- آیا کاربر خطرات احتمالی ناشی از مشارکت خود را درک کرده است؟
2.3 مالکیت معنوی
مالکیت معنوی به آفرینشهای غیرملموس ناشی از ابتکار انسانی اشاره دارد که ممکن است ارزش اقتصادی برای افراد یا کسبوکارها داشته باشد.
سوالاتی که باید بررسی شوند:
- آیا دادههای جمعآوریشده ارزش اقتصادی برای یک کاربر یا کسبوکار دارند؟
- آیا کاربر مالکیت معنوی در اینجا دارد؟
- آیا سازمان مالکیت معنوی در اینجا دارد؟
- اگر این حقوق وجود دارند، چگونه آنها را محافظت میکنیم؟
2.4 حریم خصوصی دادهها
حریم خصوصی دادهها یا حریم اطلاعات به حفظ حریم خصوصی کاربران و حفاظت از هویت کاربران در ارتباط با اطلاعات قابل شناسایی شخصی اشاره دارد.
سوالاتی که باید بررسی شوند:
- آیا دادههای (شخصی) کاربران در برابر هکها و نشتها ایمن هستند؟
- آیا دادههای کاربران فقط برای کاربران و زمینههای مجاز قابل دسترسی هستند؟
- آیا ناشناس بودن کاربران هنگام اشتراکگذاری یا انتشار دادهها حفظ میشود؟
- آیا میتوان یک کاربر را از مجموعه دادههای ناشناس شناسایی کرد؟
2.5 حق فراموش شدن
حق فراموش شدن یا حق حذف حفاظت اضافی از دادههای شخصی را برای کاربران فراهم میکند. به طور خاص، این حق به کاربران اجازه میدهد درخواست حذف یا حذف دادههای شخصی از جستجوهای اینترنتی و مکانهای دیگر را تحت شرایط خاص بدهند - به آنها اجازه میدهد یک شروع تازه آنلاین داشته باشند بدون اینکه اقدامات گذشته علیه آنها استفاده شود.
سوالاتی که باید بررسی شوند:
- آیا سیستم اجازه میدهد افراد دادهشده درخواست حذف کنند؟
- آیا باید انصراف کاربر از رضایت باعث حذف خودکار شود؟
- آیا دادهها بدون رضایت یا به روشهای غیرقانونی جمعآوری شدهاند؟
- آیا ما با مقررات دولتی برای حریم خصوصی دادهها مطابقت داریم؟
2.6 تعصب مجموعه دادهها
تعصب مجموعه دادهها یا تعصب جمعآوری درباره انتخاب یک زیرمجموعه غیرنماینده از دادهها برای توسعه الگوریتم است که ممکن است منجر به نتایج ناعادلانه برای گروههای مختلف شود. انواع تعصب شامل تعصب انتخاب یا نمونهگیری، تعصب داوطلبانه و تعصب ابزار است.
سوالاتی که باید بررسی شوند:
- آیا ما یک مجموعه نماینده از افراد دادهشده را انتخاب کردهایم؟
- آیا مجموعه دادههای جمعآوریشده یا مدیریتشده خود را برای انواع مختلف تعصب آزمایش کردهایم؟
- آیا میتوانیم هرگونه تعصب کشفشده را کاهش دهیم یا حذف کنیم؟
2.7 کیفیت دادهها
کیفیت دادهها به اعتبار مجموعه دادههای مدیریتشده که برای توسعه الگوریتمهای ما استفاده میشود نگاه میکند، و بررسی میکند که آیا ویژگیها و رکوردها الزامات سطح دقت و سازگاری مورد نیاز برای هدف هوش مصنوعی ما را برآورده میکنند یا خیر.
سوالاتی که باید بررسی شوند:
- آیا ما ویژگیهای معتبر برای مورد استفاده خود را جمعآوری کردهایم؟
- آیا دادهها به طور سازگار در منابع داده مختلف جمعآوری شدهاند؟
- آیا مجموعه داده برای شرایط یا سناریوهای مختلف کامل است؟
- آیا اطلاعات بهطور دقیق واقعیت را منعکس میکند؟
2.8 عدالت الگوریتمی
عدالت الگوریتمی بررسی میکند که آیا طراحی الگوریتم بهطور سیستماتیک علیه گروههای خاصی از افراد تبعیض قائل میشود و منجر به آسیبهای احتمالی در تخصیص (جایی که منابع از آن گروه محروم یا withheld میشوند) و کیفیت خدمات (جایی که دقت هوش مصنوعی برای برخی گروهها کمتر از دیگران است) میشود.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا دقت مدل را برای گروهها و شرایط متنوع ارزیابی کردیم؟
- آیا سیستم را برای آسیبهای احتمالی (مانند کلیشهسازی) بررسی کردیم؟
- آیا میتوانیم دادهها را اصلاح کنیم یا مدلها را دوباره آموزش دهیم تا آسیبهای شناساییشده را کاهش دهیم؟
منابعی مانند چکلیستهای عدالت هوش مصنوعی را برای یادگیری بیشتر بررسی کنید.
2.9 تحریف اطلاعات
تحریف دادهها به این موضوع میپردازد که آیا ما بینشهای حاصل از دادههای گزارششده صادقانه را بهگونهای فریبنده برای حمایت از یک روایت مطلوب منتقل میکنیم.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا دادههای ناقص یا نادرست را گزارش میدهیم؟
- آیا دادهها را بهگونهای بصریسازی میکنیم که منجر به نتیجهگیریهای گمراهکننده شود؟
- آیا از تکنیکهای آماری انتخابی برای دستکاری نتایج استفاده میکنیم؟
- آیا توضیحات جایگزینی وجود دارد که ممکن است نتیجه متفاوتی ارائه دهد؟
2.10 انتخاب آزاد
توهم انتخاب آزاد زمانی رخ میدهد که "معماری انتخاب" سیستم از الگوریتمهای تصمیمگیری برای هدایت افراد به سمت یک نتیجه ترجیحی استفاده میکند، در حالی که به نظر میرسد به آنها گزینهها و کنترل داده شده است. این الگوهای تاریک میتوانند به کاربران آسیبهای اجتماعی و اقتصادی وارد کنند. از آنجا که تصمیمات کاربران بر پروفایلهای رفتاری تأثیر میگذارد، این اقدامات ممکن است انتخابهای آینده را تقویت یا گسترش دهد و تأثیر این آسیبها را افزایش دهد.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا کاربر پیامدهای انتخاب خود را درک کرده است؟
- آیا کاربر از گزینههای (جایگزین) و مزایا و معایب هر یک آگاه بوده است؟
- آیا کاربر میتواند یک انتخاب خودکار یا تحت تأثیر قرار گرفته را بعداً تغییر دهد؟
3. مطالعات موردی
برای قرار دادن این چالشهای اخلاقی در زمینههای واقعی، کمک میکند که به مطالعات موردی نگاه کنیم که آسیبها و پیامدهای احتمالی برای افراد و جامعه را نشان میدهند، زمانی که چنین نقضهای اخلاقی نادیده گرفته شوند.
در اینجا چند مثال آورده شده است:
| چالش اخلاقی | مطالعه موردی |
|---|---|
| رضایت آگاهانه | 1972 - مطالعه سیفلیس توسکیگی - به مردان آفریقایی-آمریکایی که در این مطالعه شرکت کردند وعده مراقبت پزشکی رایگان داده شد، اما توسط محققان فریب داده شدند که به آنها در مورد تشخیص بیماری یا در دسترس بودن درمان اطلاع ندادند. بسیاری از شرکتکنندگان جان خود را از دست دادند و شرکا یا فرزندان آنها تحت تأثیر قرار گرفتند؛ این مطالعه 40 سال طول کشید. |
| حریم خصوصی دادهها | 2007 - جایزه دادههای نتفلیکس به محققان 10 میلیون رتبهبندی فیلم ناشناس از 50 هزار مشتری ارائه داد تا الگوریتمهای توصیه را بهبود دهند. با این حال، محققان توانستند دادههای ناشناس را با دادههای قابلشناسایی شخصی در مجموعههای داده خارجی (مانند نظرات IMDb) مرتبط کنند - بهطور مؤثر برخی از مشترکان نتفلیکس را "غیرناشناس" کردند. |
| تعصب در جمعآوری دادهها | 2013 - شهر بوستون اپلیکیشن Street Bump را توسعه داد که به شهروندان اجازه میداد چالهها را گزارش دهند و به شهر دادههای بهتر جادهای برای یافتن و رفع مشکلات ارائه دهد. با این حال، افراد در گروههای کمدرآمد دسترسی کمتری به خودروها و تلفنها داشتند، که مشکلات جادهای آنها را در این اپلیکیشن نامرئی میکرد. توسعهدهندگان با دانشگاهیان برای حل مسائل دسترسی عادلانه و شکافهای دیجیتال همکاری کردند. |
| عدالت الگوریتمی | 2018 - مطالعه Gender Shades MIT دقت محصولات هوش مصنوعی در طبقهبندی جنسیت را ارزیابی کرد و شکافهای دقت برای زنان و افراد رنگینپوست را آشکار کرد. یک کارت اپل 2019 به نظر میرسید که اعتبار کمتری به زنان نسبت به مردان ارائه میدهد. هر دو مسائل تعصب الگوریتمی را نشان دادند که منجر به آسیبهای اجتماعی-اقتصادی میشود. |
| تحریف دادهها | 2020 - وزارت بهداشت جورجیا نمودارهای COVID-19 منتشر کرد که به نظر میرسید شهروندان را در مورد روند موارد تأییدشده با ترتیب غیرزمانی در محور x گمراه کند. این مثال تحریف از طریق ترفندهای بصریسازی را نشان میدهد. |
| توهم انتخاب آزاد | 2020 - اپلیکیشن یادگیری ABCmouse برای حل شکایت FTC 10 میلیون دلار پرداخت کرد، جایی که والدین مجبور به پرداخت اشتراکهایی شدند که نمیتوانستند لغو کنند. این مثال الگوهای تاریک در معماری انتخاب را نشان میدهد، جایی که کاربران به سمت انتخابهای بالقوه مضر هدایت شدند. |
| حریم خصوصی دادهها و حقوق کاربران | 2021 - نقص دادههای فیسبوک دادههای 530 میلیون کاربر را افشا کرد و منجر به تسویه 5 میلیارد دلاری با FTC شد. با این حال، فیسبوک از اطلاعرسانی به کاربران در مورد نقص خودداری کرد و حقوق کاربران در مورد شفافیت دادهها و دسترسی را نقض کرد. |
میخواهید مطالعات موردی بیشتری را بررسی کنید؟ این منابع را بررسی کنید:
- Ethics Unwrapped - معضلات اخلاقی در صنایع مختلف.
- دوره اخلاق در علم داده - مطالعات موردی برجسته بررسی شده.
- جایی که مسائل اشتباه پیش رفتهاند - چکلیست Deon با مثالها.
🚨 به مطالعات موردی که دیدهاید فکر کنید - آیا شما تجربه یا تحت تأثیر چالش اخلاقی مشابهی در زندگی خود قرار گرفتهاید؟ آیا میتوانید حداقل یک مطالعه موردی دیگر را که یکی از چالشهای اخلاقی مورد بحث در این بخش را نشان میدهد، به یاد بیاورید؟
اخلاق کاربردی
ما درباره مفاهیم اخلاقی، چالشها و مطالعات موردی در زمینههای واقعی صحبت کردیم. اما چگونه میتوانیم اصول و شیوههای اخلاقی را در پروژههای خود اعمال کنیم؟ و چگونه میتوانیم این شیوهها را برای حکمرانی بهتر عملیاتی کنیم؟ بیایید برخی از راهحلهای واقعی را بررسی کنیم:
1. کدهای حرفهای
کدهای حرفهای یک گزینه برای سازمانها ارائه میدهند تا اعضای خود را "تشویق" کنند که از اصول اخلاقی و بیانیه مأموریت آنها حمایت کنند. کدها راهنمای اخلاقی برای رفتار حرفهای هستند که به کارکنان یا اعضا کمک میکنند تصمیماتی بگیرند که با اصول سازمانشان همسو باشد. آنها تنها به اندازه رعایت داوطلبانه اعضا مؤثر هستند؛ با این حال، بسیاری از سازمانها پاداشها و مجازاتهای اضافی برای انگیزه دادن به اعضا برای رعایت کدها ارائه میدهند.
نمونهها شامل موارد زیر هستند:
- کد اخلاق آکسفورد مونیخ
- کد رفتار انجمن علم داده (ایجاد شده در 2013)
- کد اخلاق و رفتار حرفهای ACM (از سال 1993)
🚨 آیا شما عضو یک سازمان حرفهای مهندسی یا علم داده هستید؟ سایت آنها را بررسی کنید تا ببینید آیا کد اخلاق حرفهای تعریف کردهاند. این کد درباره اصول اخلاقی آنها چه میگوید؟ چگونه اعضا را "تشویق" میکنند که از کد پیروی کنند؟
2. چکلیستهای اخلاقی
در حالی که کدهای حرفهای رفتار اخلاقی مورد نیاز از متخصصان را تعریف میکنند، آنها محدودیتهای شناختهشدهای در اجرا دارند، بهویژه در پروژههای بزرگمقیاس. در عوض، بسیاری از متخصصان علم داده از چکلیستها حمایت میکنند که میتوانند اصول را به شیوهها بهطور قطعی و قابلاجرا متصل کنند.
چکلیستها سؤالات را به وظایف "بله/خیر" تبدیل میکنند که میتوانند عملیاتی شوند و بهعنوان بخشی از جریانهای کاری استاندارد انتشار محصول ردیابی شوند.
نمونهها شامل موارد زیر هستند:
- Deon - یک چکلیست اخلاق داده عمومی که از توصیههای صنعتی ایجاد شده است و دارای ابزار خط فرمان برای ادغام آسان است.
- چکلیست ممیزی حریم خصوصی - راهنمایی کلی برای شیوههای مدیریت اطلاعات از دیدگاههای قانونی و اجتماعی ارائه میدهد.
- چکلیست عدالت هوش مصنوعی - توسط متخصصان هوش مصنوعی ایجاد شده است تا از پذیرش و ادغام بررسیهای عدالت در چرخههای توسعه هوش مصنوعی حمایت کند.
- 22 سؤال برای اخلاق در دادهها و هوش مصنوعی - چارچوبی بازتر، ساختار یافته برای بررسی اولیه مسائل اخلاقی در طراحی، اجرا و زمینههای سازمانی.
3. مقررات اخلاقی
اخلاق درباره تعریف ارزشهای مشترک و انجام کار درست بهطور داوطلبانه است. رعایت درباره پیروی از قانون در صورت تعریف است. حکمرانی بهطور کلی شامل تمام روشهایی است که سازمانها برای اجرای اصول اخلاقی و رعایت قوانین تعریفشده عمل میکنند.
امروزه، حکمرانی در سازمانها دو شکل دارد. اول، تعریف اصول هوش مصنوعی اخلاقی و ایجاد شیوههایی برای عملیاتی کردن پذیرش در تمام پروژههای مرتبط با هوش مصنوعی در سازمان. دوم، رعایت تمام مقررات حفاظت از دادهها که توسط دولت برای مناطقی که در آن فعالیت میکند، تعریف شده است.
نمونههایی از مقررات حفاظت از دادهها و حریم خصوصی:
1974، [قانون حریم خصوصی ایالات متحده](https://www.just- یادگیری ماشین برای مبتدیان - درس درباره انصاف، از مایکروسافت.
- اصول هوش مصنوعی مسئولانه - مسیر یادگیری رایگان از Microsoft Learn.
- اخلاق و علم داده - کتاب الکترونیکی O'Reilly (M. Loukides, H. Mason و دیگران)
- اخلاق علم داده - دوره آنلاین از دانشگاه میشیگان.
- اخلاق باز نشده - مطالعات موردی از دانشگاه تگزاس.
تکلیف
نوشتن یک مطالعه موردی اخلاق داده
سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما تلاش میکنیم دقت را حفظ کنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیها باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، توصیه میشود از ترجمه انسانی حرفهای استفاده کنید. ما مسئولیتی در قبال سوء تفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.

