|
2 weeks ago | |
---|---|---|
.. | ||
README.md | 2 weeks ago | |
assignment.md | 4 weeks ago |
README.md
مقدمهای بر اخلاق دادهها
![]() |
---|
اخلاق دادهها - طرحنگاری توسط @nitya |
ما همه شهروندان دادهای هستیم که در دنیای دادهمحور زندگی میکنیم.
روندهای بازار نشان میدهند که تا سال ۲۰۲۲، یکسوم سازمانهای بزرگ دادههای خود را از طریق بازارها و مبادلات آنلاین خرید و فروش خواهند کرد. به عنوان توسعهدهندگان اپلیکیشن، ما راحتتر و ارزانتر میتوانیم بینشهای مبتنی بر داده و اتوماسیون مبتنی بر الگوریتم را در تجربههای روزمره کاربران ادغام کنیم. اما با گسترش هوش مصنوعی، باید آسیبهای احتمالی ناشی از سلاحسازی این الگوریتمها در مقیاس بزرگ را نیز درک کنیم.
روندها همچنین نشان میدهند که تا سال ۲۰۲۵ بیش از ۱۸۰ زتابایت داده تولید و مصرف خواهیم کرد. به عنوان دانشمندان داده، این دسترسی بیسابقهای به دادههای شخصی به ما میدهد. این به ما امکان میدهد پروفایلهای رفتاری کاربران را بسازیم و تصمیمگیری را به گونهای تحت تأثیر قرار دهیم که توهم انتخاب آزاد ایجاد کند، در حالی که ممکن است کاربران را به سمت نتایج دلخواه ما سوق دهد. این موضوع همچنین سوالات گستردهتری در مورد حریم خصوصی دادهها و حفاظت از کاربران مطرح میکند.
اخلاق دادهها اکنون به عنوان محافظهای ضروری برای علم داده و مهندسی عمل میکنند، و به ما کمک میکنند آسیبهای احتمالی و پیامدهای ناخواسته ناشی از اقدامات مبتنی بر دادههای خود را به حداقل برسانیم. چرخه هیجان گارتنر برای هوش مصنوعی روندهای مرتبط با اخلاق دیجیتال، هوش مصنوعی مسئولانه، و حاکمیت هوش مصنوعی را به عنوان عوامل کلیدی برای روندهای بزرگتر پیرامون دموکراتیزهسازی و صنعتیسازی هوش مصنوعی شناسایی میکند.
در این درس، به حوزه جذاب اخلاق دادهها خواهیم پرداخت - از مفاهیم و چالشهای اصلی گرفته تا مطالعات موردی و مفاهیم کاربردی هوش مصنوعی مانند حاکمیت - که به ایجاد فرهنگ اخلاقی در تیمها و سازمانهایی که با دادهها و هوش مصنوعی کار میکنند کمک میکند.
آزمون پیش از درس 🎯
تعاریف پایه
بیایید با درک اصطلاحات پایه شروع کنیم.
کلمه "اخلاق" از کلمه یونانی "ethikos" (و ریشه آن "ethos") به معنای شخصیت یا طبیعت اخلاقی گرفته شده است.
اخلاق درباره ارزشهای مشترک و اصول اخلاقی است که رفتار ما در جامعه را هدایت میکنند. اخلاق بر اساس قوانین نیست، بلکه بر اساس هنجارهای پذیرفتهشده عمومی درباره اینکه چه چیزی "درست در مقابل غلط" است، بنا شده است. با این حال، ملاحظات اخلاقی میتوانند بر ابتکارات حاکمیت شرکتی و مقررات دولتی تأثیر بگذارند که انگیزههای بیشتری برای رعایت ایجاد میکنند.
اخلاق دادهها یک شاخه جدید از اخلاق است که "مشکلات اخلاقی مرتبط با دادهها، الگوریتمها و شیوههای مربوطه را مطالعه و ارزیابی میکند". در اینجا، "دادهها" بر اقدامات مرتبط با تولید، ضبط، مدیریت، پردازش، انتشار، اشتراکگذاری و استفاده تمرکز دارد، "الگوریتمها" بر هوش مصنوعی، عوامل، یادگیری ماشین و رباتها تمرکز دارد، و "شیوهها" بر موضوعاتی مانند نوآوری مسئولانه، برنامهنویسی، هک کردن، و کدهای اخلاقی تمرکز دارد.
اخلاق کاربردی کاربرد عملی ملاحظات اخلاقی است. این فرآیند بررسی فعالانه مسائل اخلاقی در زمینه اقدامات، محصولات و فرآیندهای واقعی و اتخاذ اقدامات اصلاحی برای اطمینان از همراستایی آنها با ارزشهای اخلاقی تعریفشده ما است.
فرهنگ اخلاقی درباره عملیاتی کردن اخلاق کاربردی است تا اطمینان حاصل شود که اصول و شیوههای اخلاقی ما به طور مداوم و مقیاسپذیر در سراسر سازمان پذیرفته میشوند. فرهنگهای اخلاقی موفق اصول اخلاقی سازمانی را تعریف میکنند، انگیزههای معناداری برای رعایت ارائه میدهند، و هنجارهای اخلاقی را با تشویق و تقویت رفتارهای مطلوب در هر سطح سازمان تقویت میکنند.
مفاهیم اخلاقی
در این بخش، مفاهیمی مانند ارزشهای مشترک (اصول) و چالشهای اخلاقی (مشکلات) برای اخلاق دادهها را بررسی خواهیم کرد - و مطالعات موردی را بررسی میکنیم که به شما کمک میکنند این مفاهیم را در زمینههای واقعی درک کنید.
1. اصول اخلاقی
هر استراتژی اخلاق دادهها با تعریف اصول اخلاقی آغاز میشود - "ارزشهای مشترک" که رفتارهای قابل قبول را توصیف میکنند و اقدامات مطابق را در پروژههای داده و هوش مصنوعی ما هدایت میکنند. شما میتوانید این اصول را در سطح فردی یا تیمی تعریف کنید. با این حال، بیشتر سازمانهای بزرگ این اصول را در قالب یک بیانیه مأموریت یا چارچوب هوش مصنوعی اخلاقی در سطح شرکتی تعریف میکنند و به طور مداوم در سراسر تیمها اجرا میکنند.
مثال: بیانیه مأموریت هوش مصنوعی مسئولانه مایکروسافت میگوید: "ما متعهد به پیشرفت هوش مصنوعی بر اساس اصول اخلاقی هستیم که انسانها را در اولویت قرار میدهد" - و ۶ اصل اخلاقی را در چارچوب زیر شناسایی میکند:
بیایید این اصول را به طور مختصر بررسی کنیم. شفافیت و پاسخگویی ارزشهای بنیادی هستند که سایر اصول بر اساس آنها بنا شدهاند - بنابراین از اینجا شروع میکنیم:
- پاسخگویی متخصصان را مسئول عملیات داده و هوش مصنوعی خود و رعایت این اصول اخلاقی میکند.
- شفافیت اطمینان میدهد که اقدامات داده و هوش مصنوعی برای کاربران قابل فهم هستند و توضیح میدهند که چه چیزی و چرا پشت تصمیمات قرار دارد.
- عدالت - بر اطمینان از رفتار عادلانه هوش مصنوعی با همه افراد تمرکز دارد و به هرگونه تعصب اجتماعی-فنی سیستماتیک یا ضمنی در دادهها و سیستمها میپردازد.
- قابلیت اطمینان و ایمنی - اطمینان میدهد که هوش مصنوعی به طور ثابت با ارزشهای تعریفشده رفتار میکند و آسیبهای احتمالی یا پیامدهای ناخواسته را به حداقل میرساند.
- حریم خصوصی و امنیت - درباره درک منشأ دادهها و ارائه حریم خصوصی دادهها و حفاظتهای مرتبط به کاربران است.
- شمولپذیری - درباره طراحی راهحلهای هوش مصنوعی با قصد، و تطبیق آنها برای پاسخگویی به طیف گستردهای از نیازها و قابلیتهای انسانی است.
🚨 به این فکر کنید که بیانیه مأموریت اخلاق دادههای شما چه میتواند باشد. چارچوبهای هوش مصنوعی اخلاقی از سازمانهای دیگر را بررسی کنید - اینجا نمونههایی از IBM، Google، و Facebook وجود دارد. چه ارزشهای مشترکی دارند؟ این اصول چگونه به محصول هوش مصنوعی یا صنعتی که در آن فعالیت میکنند مرتبط هستند؟
2. چالشهای اخلاقی
پس از تعریف اصول اخلاقی، گام بعدی ارزیابی اقدامات داده و هوش مصنوعی ما برای بررسی همراستایی آنها با این ارزشهای مشترک است. به اقدامات خود در دو دسته فکر کنید: جمعآوری دادهها و طراحی الگوریتم.
در جمعآوری دادهها، اقدامات احتمالاً شامل دادههای شخصی یا اطلاعات قابل شناسایی شخصی (PII) برای افراد زنده قابل شناسایی خواهد بود. این شامل موارد متنوعی از دادههای غیرشخصی است که به طور جمعی یک فرد را شناسایی میکنند. چالشهای اخلاقی میتوانند به موضوعاتی مانند حریم خصوصی دادهها، مالکیت دادهها، و موضوعات مرتبط مانند رضایت آگاهانه و حقوق مالکیت معنوی برای کاربران مرتبط باشند.
در طراحی الگوریتم، اقدامات شامل جمعآوری و مدیریت مجموعه دادهها و سپس استفاده از آنها برای آموزش و استقرار مدلهای دادهای خواهد بود که نتایج را پیشبینی میکنند یا تصمیمات را در زمینههای واقعی خودکار میکنند. چالشهای اخلاقی میتوانند از تعصب مجموعه دادهها، مشکلات کیفیت دادهها، بیعدالتی و نمایش نادرست در الگوریتمها ناشی شوند - از جمله برخی مسائل که ماهیت سیستماتیک دارند.
در هر دو مورد، چالشهای اخلاقی مناطقی را برجسته میکنند که اقدامات ما ممکن است با ارزشهای مشترک ما در تضاد باشند. برای شناسایی، کاهش، به حداقل رساندن یا حذف این نگرانیها - باید سوالات اخلاقی "بله/خیر" مرتبط با اقدامات خود را بپرسیم و سپس اقدامات اصلاحی لازم را انجام دهیم. بیایید نگاهی به برخی چالشهای اخلاقی و سوالات اخلاقی مرتبط با آنها بیندازیم:
2.1 مالکیت دادهها
جمعآوری دادهها اغلب شامل دادههای شخصی است که میتواند موضوعات دادهای را شناسایی کند. مالکیت دادهها درباره کنترل و حقوق کاربران مرتبط با ایجاد، پردازش، و انتشار دادهها است.
سوالات اخلاقی که باید پرسیده شوند:
- چه کسی مالک دادهها است؟ (کاربر یا سازمان)
- چه حقوقی برای موضوعات دادهای وجود دارد؟ (مانند دسترسی، حذف، قابلیت حمل)
- چه حقوقی برای سازمانها وجود دارد؟ (مانند اصلاح نظرات مخرب کاربران)
2.2 رضایت آگاهانه
رضایت آگاهانه به عمل موافقت کاربران با یک اقدام (مانند جمعآوری دادهها) با درک کامل حقایق مرتبط از جمله هدف، خطرات احتمالی، و جایگزینها اشاره دارد.
سوالاتی که باید بررسی شوند:
- آیا کاربر (موضوع دادهای) اجازه جمعآوری و استفاده از دادهها را داده است؟
- آیا کاربر هدف جمعآوری دادهها را درک کرده است؟
- آیا کاربر خطرات احتمالی ناشی از مشارکت خود را درک کرده است؟
2.3 مالکیت معنوی
مالکیت معنوی به آفرینشهای غیرملموس ناشی از ابتکار انسانی اشاره دارد که ممکن است ارزش اقتصادی برای افراد یا کسبوکارها داشته باشد.
سوالاتی که باید بررسی شوند:
- آیا دادههای جمعآوریشده ارزش اقتصادی برای یک کاربر یا کسبوکار داشتهاند؟
- آیا کاربر مالکیت معنوی در اینجا دارد؟
- آیا سازمان مالکیت معنوی در اینجا دارد؟
- اگر این حقوق وجود دارند، چگونه آنها را محافظت میکنیم؟
2.4 حریم خصوصی دادهها
حریم خصوصی دادهها یا حریم اطلاعات به حفظ حریم خصوصی کاربران و حفاظت از هویت کاربران با توجه به اطلاعات قابل شناسایی شخصی اشاره دارد.
سوالاتی که باید بررسی شوند:
- آیا دادههای (شخصی) کاربران در برابر هکها و نشتها ایمن هستند؟
- آیا دادههای کاربران فقط برای کاربران و زمینههای مجاز قابل دسترسی هستند؟
- آیا ناشناس بودن کاربران هنگام اشتراکگذاری یا انتشار دادهها حفظ میشود؟
- آیا میتوان یک کاربر را از مجموعه دادههای ناشناس شناسایی کرد؟
2.5 حق فراموش شدن
حق فراموش شدن یا حق حذف حفاظت اضافی از دادههای شخصی را برای کاربران فراهم میکند. به طور خاص، این حق به کاربران اجازه میدهد درخواست حذف یا حذف دادههای شخصی از جستجوهای اینترنتی و مکانهای دیگر را تحت شرایط خاص بدهند - و به آنها امکان شروع تازهای آنلاین بدون اینکه اقدامات گذشته علیه آنها استفاده شود را میدهد.
سوالاتی که باید بررسی شوند:
- آیا سیستم اجازه میدهد موضوعات دادهای درخواست حذف کنند؟
- آیا باید لغو رضایت کاربران باعث حذف خودکار شود؟
- آیا دادهها بدون رضایت یا به روشهای غیرقانونی جمعآوری شدهاند؟
- آیا ما با مقررات دولتی برای حریم خصوصی دادهها مطابقت داریم؟
2.6 تعصب مجموعه دادهها
تعصب مجموعه دادهها یا تعصب جمعآوری درباره انتخاب یک زیرمجموعه غیرنماینده از دادهها برای توسعه الگوریتم است که ممکن است نتایج ناعادلانهای برای گروههای مختلف ایجاد کند. انواع تعصب شامل تعصب انتخاب یا نمونهگیری، تعصب داوطلبانه، و تعصب ابزار است.
سوالاتی که باید بررسی شوند:
- آیا ما یک مجموعه نماینده از موضوعات دادهای را انتخاب کردهایم؟
- آیا مجموعه دادههای جمعآوریشده یا مدیریتشده خود را برای انواع مختلف تعصب آزمایش کردهایم؟
- آیا میتوانیم هرگونه تعصب کشفشده را کاهش دهیم یا حذف کنیم؟
2.7 کیفیت دادهها
کیفیت دادهها به اعتبار مجموعه دادههای مدیریتشده برای توسعه الگوریتمهای ما اشاره دارد، و بررسی میکند که آیا ویژگیها و رکوردها الزامات سطح دقت و سازگاری مورد نیاز برای هدف هوش مصنوعی ما را برآورده میکنند.
سوالاتی که باید بررسی شوند:
- آیا ما ویژگیهای معتبر برای مورد استفاده خود را جمعآوری کردهایم؟
- آیا دادهها به طور سازگار از منابع مختلف داده جمعآوری شدهاند؟
- آیا مجموعه داده برای شرایط یا سناریوهای مختلف کامل است؟
- آیا اطلاعات جمعآوریشده به طور دقیق واقعیت را منعکس میکنند؟
2.8 عدالت الگوریتم
Algorithm Fairness بررسی میکند که آیا طراحی الگوریتم به طور سیستماتیک علیه زیرگروههای خاصی از افراد داده تبعیض قائل میشود و منجر به آسیبهای احتمالی در تخصیص منابع (جایی که منابع از آن گروه دریغ میشود) و کیفیت خدمات (جایی که هوش مصنوعی برای برخی زیرگروهها به اندازه دیگران دقیق نیست) میشود.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا دقت مدل را برای زیرگروهها و شرایط متنوع ارزیابی کردهایم؟
- آیا سیستم را برای آسیبهای احتمالی (مثلاً کلیشهسازی) بررسی کردهایم؟
- آیا میتوانیم دادهها را بازبینی کنیم یا مدلها را دوباره آموزش دهیم تا آسیبهای شناساییشده کاهش یابد؟
منابعی مانند چکلیستهای عدالت در هوش مصنوعی را بررسی کنید تا اطلاعات بیشتری کسب کنید.
2.9 تحریف دادهها
تحریف دادهها به این موضوع میپردازد که آیا ما بینشهای حاصل از دادههای گزارششده صادقانه را به شکلی فریبنده برای حمایت از یک روایت دلخواه منتقل میکنیم.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا دادههای ناقص یا نادرست را گزارش میکنیم؟
- آیا دادهها را به شکلی تجسم میکنیم که منجر به نتیجهگیریهای گمراهکننده شود؟
- آیا از تکنیکهای آماری انتخابی برای دستکاری نتایج استفاده میکنیم؟
- آیا توضیحات جایگزینی وجود دارد که ممکن است نتیجه متفاوتی ارائه دهد؟
2.10 توهم انتخاب آزاد
توهم انتخاب آزاد زمانی رخ میدهد که "معماریهای انتخاب" سیستم از الگوریتمهای تصمیمگیری استفاده میکنند تا افراد را به سمت یک نتیجه دلخواه سوق دهند، در حالی که به نظر میرسد به آنها گزینهها و کنترل داده شده است. این الگوهای تاریک میتوانند به کاربران آسیبهای اجتماعی و اقتصادی وارد کنند. از آنجا که تصمیمات کاربران بر پروفایلهای رفتاری تأثیر میگذارد، این اقدامات ممکن است انتخابهای آینده را تقویت یا گسترش دهند.
سؤالاتی که باید در اینجا بررسی شوند:
- آیا کاربر پیامدهای انتخاب خود را درک کرده است؟
- آیا کاربر از گزینههای (جایگزین) و مزایا و معایب هر یک آگاه بوده است؟
- آیا کاربر میتواند یک انتخاب خودکار یا تحت تأثیر را بعداً معکوس کند؟
3. مطالعات موردی
برای قرار دادن این چالشهای اخلاقی در زمینههای واقعی، بررسی مطالعات موردی که آسیبها و پیامدهای احتمالی برای افراد و جامعه را نشان میدهند، زمانی که این نقضهای اخلاقی نادیده گرفته میشوند، مفید است.
در اینجا چند مثال آورده شده است:
چالش اخلاقی | مطالعه موردی |
---|---|
رضایت آگاهانه | 1972 - مطالعه سیفلیس توسکیگی - به مردان آفریقایی-آمریکایی که در این مطالعه شرکت کردند وعده مراقبت پزشکی رایگان داده شد، اما توسط محققان فریب داده شدند که آنها را از تشخیص بیماری یا دسترسی به درمان مطلع نکردند. بسیاری از شرکتکنندگان جان خود را از دست دادند و شرکا یا فرزندان آنها تحت تأثیر قرار گرفتند؛ این مطالعه 40 سال ادامه داشت. |
حریم خصوصی دادهها | 2007 - جایزه دادههای نتفلیکس شامل ارائه 10 میلیون رتبهبندی ناشناس فیلم از 50 هزار مشتری به محققان برای بهبود الگوریتمهای توصیه بود. با این حال، محققان توانستند دادههای ناشناس را با دادههای شناساییشده شخصی در مجموعه دادههای خارجی (مانند نظرات IMDb) مرتبط کنند و عملاً برخی از مشترکان نتفلیکس را "غیرناشناس" کنند. |
سوگیری در جمعآوری دادهها | 2013 - شهر بوستون اپلیکیشن Street Bump را توسعه داد که به شهروندان اجازه میداد چالهها را گزارش کنند و دادههای بهتری برای تعمیر جادهها به شهر ارائه میداد. با این حال، افراد با درآمد پایینتر دسترسی کمتری به خودرو و تلفن داشتند، که مشکلات جادهای آنها را در این اپلیکیشن نامرئی میکرد. توسعهدهندگان با دانشگاهیان همکاری کردند تا مسائل مربوط به دسترسی عادلانه و شکافهای دیجیتال را برای عدالت حل کنند. |
عدالت الگوریتمی | 2018 - مطالعه Gender Shades از MIT دقت محصولات طبقهبندی جنسیت هوش مصنوعی را ارزیابی کرد و شکافهایی در دقت برای زنان و افراد رنگینپوست نشان داد. یک کارت اعتباری اپل در سال 2019 به نظر میرسید که به زنان اعتبار کمتری نسبت به مردان ارائه میدهد. هر دو مثال مشکلات سوگیری الگوریتمی را نشان میدهند که منجر به آسیبهای اجتماعی-اقتصادی میشود. |
تحریف دادهها | 2020 - وزارت بهداشت جورجیا نمودارهای COVID-19 را منتشر کرد که به نظر میرسید شهروندان را در مورد روند موارد تأییدشده با ترتیب غیرزمانی محور x گمراه میکند. این مثال تحریف از طریق ترفندهای تجسم دادهها را نشان میدهد. |
توهم انتخاب آزاد | 2020 - اپلیکیشن آموزشی ABCmouse با پرداخت 10 میلیون دلار برای حل شکایت FTC موافقت کرد، جایی که والدین مجبور به پرداخت اشتراکهایی شدند که نمیتوانستند لغو کنند. این مثال الگوهای تاریک در معماریهای انتخاب را نشان میدهد که کاربران را به سمت انتخابهای بالقوه مضر سوق میدهد. |
حریم خصوصی دادهها و حقوق کاربران | 2021 - نقص دادههای فیسبوک دادههای 530 میلیون کاربر را افشا کرد و منجر به تسویه 5 میلیارد دلاری با FTC شد. با این حال، فیسبوک از اطلاعرسانی به کاربران در مورد این نقص خودداری کرد و حقوق کاربران در مورد شفافیت دادهها و دسترسی را نقض کرد. |
میخواهید مطالعات موردی بیشتری را بررسی کنید؟ این منابع را بررسی کنید:
- Ethics Unwrapped - معضلات اخلاقی در صنایع مختلف.
- دوره اخلاق در علم داده - مطالعات موردی برجسته.
- جایی که مسائل اشتباه پیش رفتهاند - چکلیست Deon با مثالها.
🚨 به مطالعات موردی که دیدهاید فکر کنید - آیا شما تجربه یا تأثیر مشابهی از یک چالش اخلاقی در زندگی خود داشتهاید؟ آیا میتوانید حداقل یک مطالعه موردی دیگر را که یکی از چالشهای اخلاقی مورد بحث در این بخش را نشان میدهد، به یاد بیاورید؟
اخلاق کاربردی
ما درباره مفاهیم اخلاقی، چالشها و مطالعات موردی در زمینههای واقعی صحبت کردیم. اما چگونه میتوانیم اصول و شیوههای اخلاقی را در پروژههای خود اعمال کنیم؟ و چگونه میتوانیم این شیوهها را برای حاکمیت بهتر عملیاتی کنیم؟ بیایید برخی از راهحلهای واقعی را بررسی کنیم:
1. کدهای حرفهای
کدهای حرفهای یک گزینه برای سازمانها هستند تا اعضای خود را به حمایت از اصول اخلاقی و بیانیه مأموریت خود "تشویق" کنند. کدها راهنمای اخلاقی برای رفتار حرفهای هستند و به کارکنان یا اعضا کمک میکنند تصمیماتی بگیرند که با اصول سازمانشان همسو باشد. این کدها تنها به اندازه تعهد داوطلبانه اعضا مؤثر هستند؛ با این حال، بسیاری از سازمانها پاداشها و مجازاتهای اضافی برای انگیزهبخشی به اعضا ارائه میدهند.
مثالها شامل:
- کد اخلاق آکسفورد مونیخ
- کد رفتار انجمن علم داده (ایجاد شده در 2013)
- کد اخلاق و رفتار حرفهای ACM (از سال 1993)
🚨 آیا شما عضو یک سازمان حرفهای مهندسی یا علم داده هستید؟ سایت آنها را بررسی کنید تا ببینید آیا کد اخلاق حرفهای تعریف کردهاند. این کد درباره اصول اخلاقی آنها چه میگوید؟ چگونه اعضا را به پیروی از کد تشویق میکنند؟
2. چکلیستهای اخلاقی
در حالی که کدهای حرفهای رفتار اخلاقی مورد نیاز را تعریف میکنند، آنها محدودیتهای شناختهشدهای در اجرا دارند، بهویژه در پروژههای بزرگ. در عوض، بسیاری از کارشناسان علم داده از چکلیستها حمایت میکنند که میتوانند اصول را به شیوهها به روشهای قطعیتر و عملیتر متصل کنند.
چکلیستها سؤالات را به وظایف "بله/خیر" تبدیل میکنند که میتوانند عملیاتی شوند و به عنوان بخشی از جریانهای کاری استاندارد انتشار محصول پیگیری شوند.
مثالها شامل:
- Deon - یک چکلیست اخلاق داده عمومی که از توصیههای صنعتی ایجاد شده و دارای یک ابزار خط فرمان برای ادغام آسان است.
- چکلیست حسابرسی حریم خصوصی - راهنمایی کلی برای شیوههای مدیریت اطلاعات از دیدگاههای قانونی و اجتماعی ارائه میدهد.
- چکلیست عدالت در هوش مصنوعی - توسط متخصصان هوش مصنوعی برای حمایت از پذیرش و ادغام بررسیهای عدالت در چرخههای توسعه هوش مصنوعی ایجاد شده است.
- 22 سؤال برای اخلاق در داده و هوش مصنوعی - چارچوبی بازتر که برای بررسی اولیه مسائل اخلاقی در طراحی، پیادهسازی و زمینههای سازمانی ساختار یافته است.
3. مقررات اخلاقی
اخلاق درباره تعریف ارزشهای مشترک و انجام کار درست به صورت داوطلبانه است. انطباق درباره پیروی از قانون در صورت تعریف است. حاکمیت به طور کلی شامل تمام روشهایی است که سازمانها برای اجرای اصول اخلاقی و رعایت قوانین موجود عمل میکنند.
امروزه، حاکمیت در سازمانها دو شکل دارد. اول، تعریف اصول هوش مصنوعی اخلاقی و ایجاد شیوههایی برای عملیاتی کردن پذیرش در تمام پروژههای مرتبط با هوش مصنوعی در سازمان. دوم، رعایت تمام مقررات حفاظت از دادهها که توسط دولتها برای مناطقی که در آن فعالیت میکنند، تعریف شده است.
مثالهایی از مقررات حفاظت از دادهها و حریم خصوصی:
1974
، قانون حریم خصوصی ایالات متحده - جمعآوری، استفاده و افشای اطلاعات شخصی توسط دولت فدرال را تنظیم میکند.1996
، قانون قابلیت حمل و پاسخگویی بیمه سلامت ایالات متحده (HIPAA) - از دادههای سلامت شخصی محافظت میکند.1998
، قانون حفاظت از حریم خصوصی آنلاین کودکان ایالات متحده (COPPA) - از حریم خصوصی دادههای کودکان زیر 13 سال محافظت میکند.2018
، مقررات عمومی حفاظت از دادهها (GDPR) - حقوق کاربران، حفاظت از دادهها و حریم خصوصی را فراهم میکند.2018
، قانون حریم خصوصی مصرفکننده کالیفرنیا (CCPA) به مصرفکنندگان حقوق بیشتری بر دادههای (شخصی) خود میدهد.2021
، قانون حفاظت از اطلاعات شخصی چین که به تازگی تصویب شده و یکی از قویترین مقررات حریم خصوصی دادههای آنلاین در جهان است.
🚨 اتحادیه اروپا مقررات عمومی حفاظت از دادهها (GDPR) را تعریف کرده است که یکی از تأثیرگذارترین مقررات حریم خصوصی دادهها در جهان است. آیا میدانستید که این مقررات 8 حق کاربر را برای حفاظت از حریم خصوصی دیجیتال و دادههای شخصی شهروندان تعریف میکند؟ درباره این حقوق و اهمیت آنها بیشتر بیاموزید.
4. فرهنگ اخلاقی
توجه داشته باشید که شکاف ناملموسی بین انطباق (انجام کافی برای رعایت "حرف قانون") و پرداختن به مسائل سیستماتیک (مانند سختشدن، عدم تقارن اطلاعات و نابرابری توزیعی) وجود دارد که میتواند تسریع در تسلیحاتیسازی هوش مصنوعی را به همراه داشته باشد.
دومی نیازمند رویکردهای مشارکتی برای تعریف فرهنگهای اخلاقی است که ارتباطات عاطفی و ارزشهای مشترک سازگار را در سراسر سازمانها در صنعت ایجاد میکند. این امر نیازمند فرهنگهای اخلاق داده رسمیتر در سازمانها است - به طوری که هر کسی بتواند طناب آندون را بکشد (برای مطرح کردن نگرانیهای اخلاقی در اوایل فرآیند) و انجام ارزیابیهای اخلاقی (مثلاً در استخدام) به یک معیار اصلی در تشکیل تیم در پروژههای هوش مصنوعی تبدیل شود.
آزمون پس از سخنرانی 🎯
مرور و مطالعه شخصی
دورهها و کتابها به درک مفاهیم اصلی اخلاق و چالشها کمک میکنند، در حالی که مطالعات موردی و ابزارها به شیوههای اخلاق کاربردی در زمینههای واقعی کمک میکنند. در اینجا چند منبع برای شروع آورده شده است:
- یادگیری ماشین برای مبتدیان - درس عدالت، از مایکروسافت.
- اصول هوش مصنوعی مسئولانه - مسیر یادگیری رایگان از Microsoft Learn.
- اخلاق و علم داده - کتاب الکترونیکی از O'Reilly (نوشته M. Loukides، H. Mason و دیگران)
- اخلاق در علم داده - دوره آنلاین از دانشگاه میشیگان.
- اخلاق باز نشده - مطالعات موردی از دانشگاه تگزاس.
تکلیف
نوشتن یک مطالعه موردی در اخلاق داده
سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما برای دقت تلاش میکنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادقتیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.