You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/uk/1-Introduction/02-ethics/README.md

250 lines
42 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
"translation_date": "2025-09-05T20:04:04+00:00",
"source_file": "1-Introduction/02-ethics/README.md",
"language_code": "uk"
}
-->
# Вступ до етики даних
|![ Скетчноут від [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)|
|:---:|
| Етика науки про дані - _Скетчноут від [@nitya](https://twitter.com/nitya)_ |
---
Ми всі є громадянами даних, які живуть у світі, де дані відіграють ключову роль.
Ринкові тенденції показують, що до 2022 року кожна третя велика організація буде купувати та продавати свої дані через онлайн [Маркетплейси та Біржі](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Як **розробники додатків**, ми зможемо легше та дешевше інтегрувати аналітику, засновану на даних, та автоматизацію, керовану алгоритмами, у щоденні користувацькі досвіди. Але з поширенням штучного інтелекту нам також потрібно буде розуміти потенційні шкоди, які можуть виникнути через [використання алгоритмів у шкідливих цілях](https://www.youtube.com/watch?v=TQHs8SA1qpk) у великому масштабі.
Тенденції також вказують на те, що до 2025 року ми створимо та споживатимемо понад [180 зетабайтів](https://www.statista.com/statistics/871513/worldwide-data-created/) даних. Як **науковці з даних**, це дає нам безпрецедентний рівень доступу до персональних даних. Це означає, що ми можемо створювати поведінкові профілі користувачів і впливати на прийняття рішень таким чином, що створює [ілюзію вільного вибору](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), водночас потенційно підштовхуючи користувачів до бажаних для нас результатів. Це також піднімає ширші питання щодо конфіденційності даних та захисту користувачів.
Етика даних тепер є еобхідними обмеженнями_ для науки про дані та інженерії, які допомагають мінімізувати потенційні шкоди та непередбачені наслідки наших дій, заснованих на даних. [Цикл гіперболічних очікувань Gartner для ШІ](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) визначає актуальні тенденції в цифровій етиці, відповідальному ШІ та управлінні ШІ як ключові рушії для більших мегатрендів навколо емократизації_ та _індустріалізації_ ШІ.
![Цикл гіперболічних очікувань Gartner для ШІ - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==)
У цьому уроці ми дослідимо захоплюючу сферу етики даних - від основних концепцій і викликів до кейсів та прикладних концепцій ШІ, таких як управління, які допомагають створити культуру етики в командах та організаціях, що працюють з даними та ШІ.
## [Тест перед лекцією](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
## Основні визначення
Почнемо з розуміння базової термінології.
Слово "етика" походить від [грецького слова "ethikos"](https://en.wikipedia.org/wiki/Ethics) (та його кореня "ethos"), що означає _характер або моральну природу_.
**Етика** стосується спільних цінностей та моральних принципів, які регулюють нашу поведінку в суспільстві. Етика базується не на законах, а на широко прийнятих нормах того, що є "правильним проти неправильного". Однак етичні міркування можуть впливати на ініціативи корпоративного управління та урядові регуляції, які створюють більше стимулів для дотримання.
**Етика даних** є [новою галуззю етики](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), яка "вивчає та оцінює моральні проблеми, пов'язані з аними, алгоритмами та відповідними практиками_". Тут **"дані"** зосереджуються на діях, пов'язаних із створенням, записом, обробкою, поширенням, обміном та використанням, **"алгоритми"** - на ШІ, агентів, машинне навчання та роботів, а **"практики"** - на темах, таких як відповідальні інновації, програмування, хакінг та кодекси етики.
**Прикладна етика** - це [практичне застосування моральних міркувань](https://en.wikipedia.org/wiki/Applied_ethics). Це процес активного дослідження етичних питань у контексті _реальних дій, продуктів та процесів_ і вжиття коригувальних заходів для забезпечення їх відповідності визначеним етичним цінностям.
**Культура етики** стосується [_операціоналізації_ прикладної етики](https://hbr.org/2019/05/how-to-design-an-ethical-organization), щоб переконатися, що наші етичні принципи та практики приймаються послідовно та масштабовано в усій організації. Успішні культури етики визначають загальноорганізаційні етичні принципи, забезпечують значущі стимули для дотримання та підсилюють норми етики, заохочуючи та підсилюючи бажану поведінку на кожному рівні організації.
## Концепції етики
У цьому розділі ми обговоримо такі концепції, як **спільні цінності** (принципи) та **етичні виклики** (проблеми) для етики даних - і дослідимо **кейси**, які допоможуть вам зрозуміти ці концепції в реальних контекстах.
### 1. Принципи етики
Кожна стратегія етики даних починається з визначення _етичних принципів_ - "спільних цінностей", які описують прийнятну поведінку та спрямовують дії, що відповідають нормам, у наших проектах з даними та ШІ. Ви можете визначити їх на індивідуальному або командному рівні. Однак більшість великих організацій окреслюють їх у місії або рамках _етичного ШІ_, які визначаються на корпоративному рівні та послідовно впроваджуються у всіх командах.
**Приклад:** Місія [Відповідального ШІ](https://www.microsoft.com/en-us/ai/responsible-ai) Microsoft звучить: _"Ми прагнемо до розвитку ШІ, керованого етичними принципами, які ставлять людей на перше місце"_ - визначаючи 6 етичних принципів у наведеній нижче рамці:
![Відповідальний ШІ у Microsoft](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png)
Давайте коротко розглянемо ці принципи. розорість_ та ідповідальність_ є основними цінностями, на яких будуються інші принципи - тому почнемо з них:
* [**Відповідальність**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) робить практиків ідповідальними_ за їхні операції з даними та ШІ, а також за дотримання цих етичних принципів.
* [**Прозорість**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) забезпечує, щоб дії з даними та ШІ були розумілими_ (інтерпретованими) для користувачів, пояснюючи що і чому стоїть за рішеннями.
* [**Справедливість**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - зосереджується на забезпеченні того, щоб ШІ ставився о всіх людей_ справедливо, вирішуючи будь-які системні або приховані соціально-технічні упередження в даних та системах.
* [**Надійність та безпека**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - забезпечує, що ШІ поводиться _послідовно_ з визначеними цінностями, мінімізуючи потенційні шкоди або непередбачені наслідки.
* [**Конфіденційність та безпека**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - стосується розуміння походження даних та забезпечення онфіденційності даних та пов'язаних із цим захистів_ для користувачів.
* [**Інклюзивність**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - стосується розробки рішень ШІ з наміром, адаптуючи їх для задоволення _широкого спектру людських потреб_ та можливостей.
> 🚨 Подумайте, якою могла б бути ваша місія етики даних. Досліджуйте рамки етичного ШІ інших організацій - ось приклади від [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) та [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Які спільні цінності вони мають? Як ці принципи пов'язані з продуктом ШІ або галуззю, в якій вони працюють?
### 2. Виклики етики
Після того, як ми визначили етичні принципи, наступним кроком є оцінка наших дій з даними та ШІ, щоб побачити, чи відповідають вони цим спільним цінностям. Подумайте про свої дії у двох категоріях: бір даних_ та _розробка алгоритмів_.
Під час збору даних дії, ймовірно, будуть включати **персональні дані** або персонально ідентифіковану інформацію (PII) для ідентифікованих живих осіб. Це включає [різноманітні елементи неперсональних даних](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), які олективно_ ідентифікують особу. Етичні виклики можуть стосуватися онфіденційності даних_, _власності даних_ та пов'язаних тем, таких як _усвідомлена згода_ та _права інтелектуальної власності_ для користувачів.
Під час розробки алгоритмів дії будуть включати збір та створення **наборів даних**, а потім їх використання для навчання та розгортання **моделей даних**, які прогнозують результати або автоматизують рішення в реальних контекстах. Етичні виклики можуть виникати через _упередженість набору даних_, _проблеми якості даних_, есправедливість_ та _спотворення_ в алгоритмах - включаючи деякі системні проблеми.
В обох випадках етичні виклики висвітлюють області, де наші дії можуть вступати в конфлікт із нашими спільними цінностями. Щоб виявити, пом'якшити, мінімізувати або усунути ці проблеми, нам потрібно ставити моральні "так/ні" питання щодо наших дій, а потім вживати коригувальних заходів за потреби. Давайте розглянемо деякі етичні виклики та моральні питання, які вони піднімають:
#### 2.1 Власність даних
Збір даних часто включає персональні дані, які можуть ідентифікувати суб'єктів даних. [Власність даних](https://permission.io/blog/data-ownership) стосується онтролю_ та [_прав користувачів_](https://permission.io/blog/data-ownership), пов'язаних зі створенням, обробкою та поширенням даних.
Моральні питання, які потрібно поставити:
* Хто володіє даними? (користувач чи організація)
* Які права мають суб'єкти даних? (наприклад, доступ, видалення, перенесення)
* Які права мають організації? (наприклад, виправлення шкідливих відгуків користувачів)
#### 2.2 Усвідомлена згода
[Усвідомлена згода](https://legaldictionary.net/informed-consent/) визначає акт, коли користувачі погоджуються на дію (наприклад, збір даних) з _повним розумінням_ відповідних фактів, включаючи мету, потенційні ризики та альтернативи.
Питання для дослідження:
* Чи дав користувач (суб'єкт даних) дозвіл на збір та використання даних?
* Чи зрозумів користувач мету, для якої ці дані були зібрані?
* Чи зрозумів користувач потенційні ризики від своєї участі?
#### 2.3 Інтелектуальна власність
[Інтелектуальна власність](https://en.wikipedia.org/wiki/Intellectual_property) стосується нематеріальних творінь, що виникають внаслідок людської ініціативи, які можуть ати економічну цінність_ для осіб або бізнесу.
Питання для дослідження:
* Чи мали зібрані дані економічну цінність для користувача або бізнесу?
* Чи має **користувач** інтелектуальну власність тут?
* Чи має **організація** інтелектуальну власність тут?
* Якщо ці права існують, як ми їх захищаємо?
#### 2.4 Конфіденційність даних
[Конфіденційність даних](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) або інформаційна конфіденційність стосується збереження конфіденційності користувачів та захисту їхньої ідентичності щодо персонально ідентифікованої інформації.
Питання для дослідження:
* Чи захищені персональні дані користувачів від зломів та витоків?
* Чи доступні дані користувачів лише для авторизованих користувачів та контекстів?
* Чи збережена анонімність користувачів під час обміну або поширення даних?
* Чи може користувач бути деідентифікований з анонімних наборів даних?
#### 2.5 Право бути забутим
[Право бути забутим](https://en.wikipedia.org/wiki/Right_to_be_forgotten) або [Право на видалення](https://www.gdpreu.org/right-to-be-forgotten/) забезпечує додатковий захист персональних даних для користувачів. Зокрема, це дає користувачам право вимагати видалення або вилучення персональних даних з Інтернету та інших місць, а певних обставин_, дозволяючи їм почати з чистого аркуша без того, щоб минулі дії використовувалися проти них.
Питання для дослідження:
* Чи дозволяє система суб'єктам даних вимагати видалення?
* Чи повинно відкликання згоди користувача автоматично запускати видалення?
* Чи були дані зібрані без згоди або незаконними засобами?
* Чи відповідаємо ми урядовим регуляціям щодо конфіденційності даних?
#### 2.6 Упередженість набору даних
Упередженість набору даних або [упередженість збору](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) стосується вибору ерепрезентативного_ підмножини даних для розробки алгоритму, що створює потенційну несправедливість у результатах для різних груп. Типи упередженості включають упередженість вибірки, упередженість добровольців та упередженість інструментів.
П
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) перевіряє, чи дизайн алгоритму систематично дискримінує певні підгрупи суб'єктів даних, що може призводити до [потенційної шкоди](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) у _розподілі_ (коли ресурси відмовляють або утримують від цієї групи) та _якості обслуговування_ (коли штучний інтелект менш точний для деяких підгруп порівняно з іншими).
Питання для розгляду:
* Чи ми оцінювали точність моделі для різноманітних підгруп і умов?
* Чи ми аналізували систему на предмет потенційної шкоди (наприклад, стереотипів)?
* Чи можемо ми переглянути дані або перенавчити моделі для зменшення виявленої шкоди?
Досліджуйте ресурси, такі як [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), щоб дізнатися більше.
#### 2.9 Неправильне представлення
[Неправильне представлення даних](https://www.sciencedirect.com/topics/computer-science/misrepresentation) стосується питання, чи ми передаємо висновки з чесно представлених даних у спосіб, що вводить в оману, щоб підтримати бажаний наратив.
Питання для розгляду:
* Чи ми повідомляємо неповні або неточні дані?
* Чи ми візуалізуємо дані таким чином, що це сприяє хибним висновкам?
* Чи ми використовуємо вибіркові статистичні методи для маніпулювання результатами?
* Чи існують альтернативні пояснення, які можуть запропонувати інший висновок?
#### 2.10 Свобода вибору
[Ілюзія свободи вибору](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) виникає, коли "архітектура вибору" системи використовує алгоритми прийняття рішень, щоб підштовхнути людей до прийняття бажаного результату, водночас створюючи видимість варіантів і контролю. Ці [темні патерни](https://www.darkpatterns.org/) можуть завдати соціальної та економічної шкоди користувачам. Оскільки рішення користувачів впливають на профілі поведінки, ці дії потенційно формують майбутні вибори, що можуть посилити або продовжити вплив цієї шкоди.
Питання для розгляду:
* Чи користувач розумів наслідки прийняття цього рішення?
* Чи користувач був обізнаний про (альтернативні) варіанти вибору та їхні переваги й недоліки?
* Чи може користувач скасувати автоматизований або впливовий вибір пізніше?
### 3. Кейси
Щоб розглянути ці етичні виклики в реальних контекстах, корисно звернутися до кейсів, які демонструють потенційну шкоду та наслідки для окремих осіб і суспільства, коли такі порушення етики залишаються без уваги.
Ось кілька прикладів:
| Етичний виклик | Кейси |
|--- |--- |
| **Інформована згода** | 1972 - [Дослідження сифілісу в Таскігі](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - афроамериканським чоловікам, які брали участь у дослідженні, обіцяли безкоштовну медичну допомогу, _але обманювали_, не повідомляючи про діагноз або доступність лікування. Багато учасників померли, а їхні партнери чи діти постраждали; дослідження тривало 40 років. |
| **Конфіденційність даних** | 2007 - [Конкурс даних Netflix](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) надав дослідникам _10 млн анонімних оцінок фільмів від 50 тис. клієнтів_, щоб покращити алгоритми рекомендацій. Однак дослідники змогли зіставити анонімні дані з персонально ідентифікованими даними в овнішніх наборах даних_ (наприклад, коментарі IMDb), фактично "деанонімізуючи" деяких підписників Netflix.|
| **Упередженість у зборі даних** | 2013 - Місто Бостон [розробило Street Bump](https://www.boston.gov/transportation/street-bump), додаток, який дозволяв громадянам повідомляти про ями, надаючи місту кращі дані про дороги для вирішення проблем. Однак [люди з низьким рівнем доходу мали менший доступ до автомобілів і телефонів](https://hbr.org/2013/04/the-hidden-biases-in-big-data), що робило їхні проблеми з дорогами невидимими для цього додатка. Розробники співпрацювали з академіками для вирішення питань _справедливого доступу та цифрових розривів_. |
| **Справедливість алгоритмів** | 2018 - Дослідження MIT [Gender Shades](http://gendershades.org/overview.html) оцінювало точність продуктів AI для класифікації статі, виявляючи прогалини в точності для жінок і людей кольору. У [2019 році Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) здавалося, пропонувала менший кредит жінкам, ніж чоловікам. Обидва випадки ілюструють проблеми упередженості алгоритмів, що призводять до соціально-економічної шкоди.|
| **Неправильне представлення даних** | 2020 - [Департамент охорони здоров'я Джорджії опублікував графіки COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), які, здається, вводили громадян в оману щодо тенденцій підтверджених випадків через не-хронологічне упорядкування на осі x. Це ілюструє неправильне представлення через візуалізаційні трюки. |
| **Ілюзія свободи вибору** | 2020 - Навчальний додаток [ABCmouse заплатив $10 млн для врегулювання скарги FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), де батьки були змушені платити за підписки, які вони не могли скасувати. Це ілюструє темні патерни в архітектурі вибору, де користувачів підштовхували до потенційно шкідливих рішень. |
| **Конфіденційність даних та права користувачів** | 2021 - [Витік даних Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) розкрив дані 530 млн користувачів, що призвело до штрафу $5 млрд від FTC. Однак компанія відмовилася повідомити користувачів про витік, порушуючи права користувачів щодо прозорості даних і доступу. |
Хочете дослідити більше кейсів? Ознайомтеся з цими ресурсами:
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - етичні дилеми в різних галузях.
* [Курс з етики в Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - аналіз ключових кейсів.
* [Де все пішло не так](https://deon.drivendata.org/examples/) - чекліст Deon з прикладами.
> 🚨 Подумайте про кейси, які ви бачили - чи стикалися ви або були під впливом подібного етичного виклику у своєму житті? Чи можете ви згадати хоча б один інший кейс, який ілюструє один із етичних викликів, обговорених у цьому розділі?
## Прикладна етика
Ми обговорили концепції етики, виклики та кейси в реальних контекстах. Але як почати астосовувати_ етичні принципи та практики у своїх проектах? І як _операціоналізувати_ ці практики для кращого управління? Давайте розглянемо деякі реальні рішення:
### 1. Професійні кодекси
Професійні кодекси пропонують один із варіантів для організацій "стимулювати" членів підтримувати їхні етичні принципи та місію. Кодекси є оральними орієнтирами_ для професійної поведінки, допомагаючи співробітникам або членам приймати рішення, які відповідають принципам організації. Вони ефективні настільки, наскільки добровільно дотримуються членами; однак багато організацій пропонують додаткові винагороди та штрафи для мотивації дотримання.
Приклади:
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Кодекс етики
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Кодекс поведінки (створений у 2013 році)
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (з 1993 року)
> 🚨 Чи ви є членом професійної організації з інженерії або Data Science? Досліджуйте їхній сайт, щоб побачити, чи вони визначають професійний кодекс етики. Що це говорить про їхні етичні принципи? Як вони "стимулюють" членів дотримуватися кодексу?
### 2. Етичні чеклісти
Хоча професійні кодекси визначають необхідну _етичну поведінку_ від практиків, вони [мають відомі обмеження](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) у забезпеченні виконання, особливо в масштабних проектах. Натомість багато експертів з Data Science [рекомендують чеклісти](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), які можуть **з'єднувати принципи з практиками** більш детермінованим і дієвим способом.
Чеклісти перетворюють питання на завдання "так/ні", які можна операціоналізувати, дозволяючи їх відстежувати як частину стандартних робочих процесів випуску продукту.
Приклади:
* [Deon](https://deon.drivendata.org/) - загальний чекліст з етики даних, створений на основі [рекомендацій галузі](https://deon.drivendata.org/#checklist-citations) з інструментом командного рядка для легкої інтеграції.
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - надає загальні рекомендації щодо практик обробки інформації з юридичної та соціальної точки зору.
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - створений практиками AI для підтримки впровадження перевірок справедливості в цикли розробки AI.
* [22 питання для етики в даних та AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - більш відкритий формат, структурований для початкового дослідження етичних питань у дизайні, впровадженні та організаційних контекстах.
### 3. Етичні регуляції
Етика стосується визначення спільних цінностей і добровільного виконання правильних дій. **Дотримання** стосується _виконання закону_, якщо він визначений. **Управління** охоплює всі способи, якими організації працюють для забезпечення етичних принципів і дотримання встановлених законів.
Сьогодні управління має дві форми в організаціях. По-перше, це визначення принципів **етичного AI** та встановлення практик для операціоналізації їхнього впровадження у всіх проектах, пов'язаних з AI, в організації. По-друге, це дотримання всіх урядових регуляцій щодо **захисту даних**, які діють у регіонах, де організація працює.
Приклади регуляцій щодо захисту даних і конфіденційності:
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - регулює едеральний уряд_ у зборі, використанні та розкритті персональної інформації.
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - захищає персональні медичні дані.
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - захищає конфіденційність даних дітей до 13 років.
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - забезпечує права користувачів, захист даних і конфіденційність.
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - надає споживачам більше _прав_ щодо їхніх (персональних) даних.
* `2021`, Китайський [Закон про захист персональної інформації](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) щойно прийнятий, створюючи один із найсильніших регуляцій щодо конфіденційності даних онлайн у світі.
> 🚨 Європейський Союз визначив GDPR (General Data Protection Regulation), який залишається одним із найвпливовіших регуляцій щодо конфіденційності даних сьогодні. Чи знали ви, що він також визначає [8 прав користувачів](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) для захисту цифрової конфіденційності та персональних даних громадян? Дізнайтеся, що це за права і чому вони важливі.
### 4. Культура етики
Зверніть увагу, що залишається невловима різниця між отриманням_ (виконанням "букви закону") та вирішенням [системних проблем](https://www.coursera.org/learn/data-science-ethics/home/week/4) (таких як закостенілість, інформаційна асиметрія та розподільна несправедливість), які можуть прискорити використання AI у шкідливих цілях.
Останнє вимагає [спільних підходів до визначення культури етики](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), які створюють емоційні зв'язки та послідовні спільні цінності організаціях_ у галузі. Це закликає до більш [формалізованих культур етики даних](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) в організаціях - дозволяючи _будь-кому_ [потягнути шнур Андон](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (щоб підняти етичні питання на ранніх етапах процесу) і роблячи _етичні оцінки_ (наприклад, при наймі) основним критерієм формування команди в проектах AI.
---
## [Післялекційний тест](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
## Огляд і самостійне навчання
Курси та книги допомагають зрозуміти основні концепції етики та виклики, а кейси та інструменти допомагають у застосуванні етичних практик у реальних контекстах. Ось кілька ресурсів для початку:
* [Machine Learning For Beginners](https://github.com/microsoft/ML-
* [Принципи відповідального штучного інтелекту](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - безкоштовний навчальний курс від Microsoft Learn.
* [Етика та наука про дані](https://resources.oreilly.com/examples/0636920203964) - електронна книга від O'Reilly (М. Лоукідес, Х. Мейсон та інші).
* [Етика науки про дані](https://www.coursera.org/learn/data-science-ethics#syllabus) - онлайн-курс від Університету Мічигану.
* [Етика без прикрас](https://ethicsunwrapped.utexas.edu/case-studies) - кейс-стадії від Університету Техасу.
# Завдання
[Напишіть кейс-стадію з етики даних](assignment.md)
---
**Відмова від відповідальності**:
Цей документ був перекладений за допомогою сервісу автоматичного перекладу [Co-op Translator](https://github.com/Azure/co-op-translator). Хоча ми прагнемо до точності, будь ласка, майте на увазі, що автоматичні переклади можуть містити помилки або неточності. Оригінальний документ на його рідній мові слід вважати авторитетним джерелом. Для критичної інформації рекомендується професійний людський переклад. Ми не несемо відповідальності за будь-які непорозуміння або неправильні тлумачення, що виникають внаслідок використання цього перекладу.