# Вступ до етики даних |![ Скетчноут від [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)| |:---:| | Етика науки про дані - _Скетчноут від [@nitya](https://twitter.com/nitya)_ | --- Ми всі є громадянами даних, які живуть у світі, де дані відіграють ключову роль. Ринкові тенденції показують, що до 2022 року кожна третя велика організація буде купувати та продавати свої дані через онлайн [Маркетплейси та Біржі](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Як **розробники додатків**, ми зможемо легше та дешевше інтегрувати аналітику, засновану на даних, та автоматизацію, керовану алгоритмами, у щоденний досвід користувачів. Але з поширенням штучного інтелекту нам також потрібно буде розуміти потенційні шкоди, які можуть виникнути через [використання алгоритмів у шкідливих цілях](https://www.youtube.com/watch?v=TQHs8SA1qpk) у великому масштабі. Тенденції також показують, що до 2025 року ми створимо та споживатимемо понад [180 зетабайтів](https://www.statista.com/statistics/871513/worldwide-data-created/) даних. Як **науковці з даних**, це дає нам безпрецедентний рівень доступу до персональних даних. Це означає, що ми можемо створювати поведінкові профілі користувачів і впливати на прийняття рішень таким чином, що створює [ілюзію вільного вибору](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), водночас потенційно підштовхуючи користувачів до бажаних для нас результатів. Це також піднімає ширші питання щодо конфіденційності даних та захисту користувачів. Етика даних тепер є _необхідними обмеженнями_ для науки про дані та інженерії, допомагаючи нам мінімізувати потенційні шкоди та непередбачені наслідки наших дій, заснованих на даних. [Цикл хайпу Gartner для ШІ](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) визначає актуальні тенденції в цифровій етиці, відповідальному ШІ та управлінні ШІ як ключові рушії для більших мегатрендів навколо _демократизації_ та _індустріалізації_ ШІ. ![Цикл хайпу Gartner для ШІ - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==) У цьому уроці ми дослідимо захоплюючу сферу етики даних - від основних концепцій і викликів до кейсів та прикладних концепцій ШІ, таких як управління, які допомагають створити культуру етики в командах та організаціях, що працюють з даними та ШІ. ## [Тест перед лекцією](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯 ## Основні визначення Почнемо з розуміння базової термінології. Слово "етика" походить від [грецького слова "ethikos"](https://en.wikipedia.org/wiki/Ethics) (та його кореня "ethos"), що означає _характер або моральна природа_. **Етика** стосується спільних цінностей та моральних принципів, які регулюють нашу поведінку в суспільстві. Етика базується не на законах, а на широко прийнятих нормах того, що є "правильним проти неправильного". Однак етичні міркування можуть впливати на ініціативи корпоративного управління та урядові регуляції, які створюють більше стимулів для дотримання. **Етика даних** є [новою галуззю етики](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), яка "вивчає та оцінює моральні проблеми, пов'язані з _даними, алгоритмами та відповідними практиками_". Тут **"дані"** зосереджуються на діях, пов'язаних із створенням, записом, кураторством, обробкою, поширенням, обміном та використанням, **"алгоритми"** зосереджуються на ШІ, агентах, машинному навчанні та роботах, а **"практики"** зосереджуються на таких темах, як відповідальні інновації, програмування, хакінг та кодекси етики. **Прикладна етика** є [практичним застосуванням моральних міркувань](https://en.wikipedia.org/wiki/Applied_ethics). Це процес активного дослідження етичних питань у контексті _реальних дій, продуктів та процесів_ і вжиття коригувальних заходів для забезпечення їх відповідності визначеним етичним цінностям. **Культура етики** стосується [_операціоналізації_ прикладної етики](https://hbr.org/2019/05/how-to-design-an-ethical-organization), щоб переконатися, що наші етичні принципи та практики приймаються послідовно та масштабовано по всій організації. Успішні культури етики визначають етичні принципи на рівні організації, забезпечують значущі стимули для дотримання та підсилюють норми етики, заохочуючи та підсилюючи бажану поведінку на кожному рівні організації. ## Концепції етики У цьому розділі ми обговоримо такі концепції, як **спільні цінності** (принципи) та **етичні виклики** (проблеми) для етики даних - і дослідимо **кейс-стадії**, які допоможуть вам зрозуміти ці концепції в реальних контекстах. ### 1. Принципи етики Кожна стратегія етики даних починається з визначення _етичних принципів_ - "спільних цінностей", які описують прийнятну поведінку та керують діями, що відповідають нормам, у наших проектах з даними та ШІ. Ви можете визначити їх на індивідуальному або командному рівні. Однак більшість великих організацій окреслюють їх у _місії етичного ШІ_ або рамках, які визначаються на корпоративному рівні та послідовно впроваджуються у всіх командах. **Приклад:** Місія [Відповідального ШІ](https://www.microsoft.com/en-us/ai/responsible-ai) Microsoft звучить: _"Ми прагнемо до розвитку ШІ, керованого етичними принципами, які ставлять людей на перше місце"_ - визначаючи 6 етичних принципів у наведеній нижче рамці: ![Відповідальний ШІ у Microsoft](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png) Давайте коротко розглянемо ці принципи. _Прозорість_ та _відповідальність_ є основними цінностями, на яких будуються інші принципи - тому почнемо з них: * [**Відповідальність**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) робить практиків _відповідальними_ за їхні операції з даними та ШІ, а також за дотримання цих етичних принципів. * [**Прозорість**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) забезпечує, щоб дії з даними та ШІ були _зрозумілими_ (інтерпретованими) для користувачів, пояснюючи що і чому стоїть за рішеннями. * [**Справедливість**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - зосереджується на забезпеченні того, щоб ШІ ставився _до всіх людей_ справедливо, вирішуючи будь-які системні або приховані соціально-технічні упередження в даних та системах. * [**Надійність та безпека**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - забезпечує, щоб ШІ поводився _послідовно_ з визначеними цінностями, мінімізуючи потенційні шкоди або непередбачені наслідки. * [**Конфіденційність та безпека**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - стосується розуміння походження даних та забезпечення _конфіденційності даних та пов'язаних із цим захистів_ для користувачів. * [**Інклюзивність**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - стосується розробки рішень ШІ з наміром, адаптуючи їх для задоволення _широкого спектру людських потреб_ та можливостей. > 🚨 Подумайте, якою могла б бути ваша місія етики даних. Досліджуйте рамки етичного ШІ інших організацій - ось приклади від [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) та [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Які спільні цінності вони мають? Як ці принципи пов'язані з продуктом ШІ або галуззю, в якій вони працюють? ### 2. Виклики етики Після визначення етичних принципів наступним кроком є оцінка наших дій з даними та ШІ, щоб переконатися, що вони відповідають цим спільним цінностям. Подумайте про свої дії у двох категоріях: _збір даних_ та _розробка алгоритмів_. Під час збору даних дії, ймовірно, будуть включати **персональні дані** або персонально ідентифіковану інформацію (PII) для ідентифікованих живих осіб. Це включає [різноманітні елементи неперсональних даних](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), які _колективно_ ідентифікують особу. Етичні виклики можуть стосуватися _конфіденційності даних_, _власності даних_ та пов'язаних тем, таких як _інформована згода_ та _права інтелектуальної власності_ для користувачів. Під час розробки алгоритмів дії будуть включати збір та кураторство **наборів даних**, а потім їх використання для навчання та розгортання **моделей даних**, які прогнозують результати або автоматизують рішення в реальних контекстах. Етичні виклики можуть виникати через _упередженість набору даних_, _проблеми якості даних_, _несправедливість_ та _спотворення_ в алгоритмах - включаючи деякі системні проблеми. В обох випадках етичні виклики висвітлюють області, де наші дії можуть вступати в конфлікт із нашими спільними цінностями. Щоб виявити, пом'якшити, мінімізувати або усунути ці проблеми, нам потрібно ставити моральні "так/ні" питання щодо наших дій, а потім вживати коригувальних заходів за потреби. Давайте розглянемо деякі етичні виклики та моральні питання, які вони піднімають: #### 2.1 Власність даних Збір даних часто включає персональні дані, які можуть ідентифікувати суб'єктів даних. [Власність даних](https://permission.io/blog/data-ownership) стосується _контролю_ та [_прав користувачів_](https://permission.io/blog/data-ownership), пов'язаних зі створенням, обробкою та поширенням даних. Моральні питання, які потрібно поставити: * Хто володіє даними? (користувач чи організація) * Які права мають суб'єкти даних? (наприклад, доступ, видалення, перенесення) * Які права мають організації? (наприклад, виправлення шкідливих відгуків користувачів) #### 2.2 Інформована згода [Інформована згода](https://legaldictionary.net/informed-consent/) визначає акт, коли користувачі погоджуються на дію (наприклад, збір даних) з _повним розумінням_ відповідних фактів, включаючи мету, потенційні ризики та альтернативи. Питання для дослідження: * Чи дав користувач (суб'єкт даних) дозвіл на збір та використання даних? * Чи зрозумів користувач мету, для якої ці дані були зібрані? * Чи зрозумів користувач потенційні ризики від своєї участі? #### 2.3 Інтелектуальна власність [Інтелектуальна власність](https://en.wikipedia.org/wiki/Intellectual_property) стосується нематеріальних творінь, що виникають внаслідок людської ініціативи, які можуть _мати економічну цінність_ для осіб або бізнесу. Питання для дослідження: * Чи мали зібрані дані економічну цінність для користувача або бізнесу? * Чи має **користувач** інтелектуальну власність тут? * Чи має **організація** інтелектуальну власність тут? * Якщо ці права існують, як ми їх захищаємо? #### 2.4 Конфіденційність даних [Конфіденційність даних](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) або інформаційна конфіденційність стосується збереження конфіденційності користувачів та захисту їхньої ідентичності щодо персонально ідентифікованої інформації. Питання для дослідження: * Чи захищені персональні дані користувачів від зломів та витоків? * Чи доступні дані користувачів лише для авторизованих користувачів та контекстів? * Чи збережена анонімність користувачів при обміні або поширенні даних? * Чи може користувач бути деідентифікований з анонімних наборів даних? #### 2.5 Право бути забутим [Право бути забутим](https://en.wikipedia.org/wiki/Right_to_be_forgotten) або [Право на видалення](https://www.gdpreu.org/right-to-be-forgotten/) забезпечує додатковий захист персональних даних для користувачів. Зокрема, це дає користувачам право вимагати видалення або усунення персональних даних з Інтернету та інших місць, _за певних обставин_, дозволяючи їм почати нове життя онлайн без того, щоб минулі дії були використані проти них. Питання для дослідження: * Чи дозволяє система суб'єктам даних запитувати видалення? * Чи повинно відкликання згоди користувача автоматично запускати видалення? * Чи були дані зібрані без згоди або незаконними засобами? * Чи відповідаємо ми урядовим регуляціям щодо конфіденційності даних? #### 2.6 Упередженість набору даних Упередженість набору даних або [упередженість збору](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) стосується вибору _нерепрезентативного_ підмножини даних для розробки алгоритму, що створює потенційну несправедливість у результатах для різних груп. Типи упередженості включають упередженість вибірки, упередженість добровольців та упередженість інструментів. Питання для дослідж [Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) перевіряє, чи дизайн алгоритму систематично дискримінує певні підгрупи суб'єктів даних, що може призводити до [потенційних шкод](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) у _розподілі_ (коли ресурси відмовляють або утримують від цієї групи) та _якості обслуговування_ (коли штучний інтелект менш точний для деяких підгруп порівняно з іншими). Питання для розгляду: * Чи ми оцінювали точність моделі для різноманітних підгруп і умов? * Чи ми аналізували систему на предмет потенційних шкод (наприклад, стереотипів)? * Чи можемо ми переглянути дані або перенавчити моделі для зменшення виявлених шкод? Досліджуйте ресурси, такі як [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), щоб дізнатися більше. #### 2.9 Викривлення даних [Викривлення даних](https://www.sciencedirect.com/topics/computer-science/misrepresentation) стосується питання, чи ми передаємо інсайти з чесно представлених даних у маніпулятивний спосіб для підтримки бажаного наративу. Питання для розгляду: * Чи ми повідомляємо неповні або неточні дані? * Чи ми візуалізуємо дані так, що це сприяє хибним висновкам? * Чи ми використовуємо вибіркові статистичні методи для маніпуляції результатами? * Чи існують альтернативні пояснення, які можуть запропонувати інший висновок? #### 2.10 Ілюзія вільного вибору [Ілюзія вільного вибору](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) виникає, коли "архітектури вибору" системи використовують алгоритми прийняття рішень, щоб підштовхнути людей до прийняття бажаного результату, водночас створюючи видимість варіантів і контролю. Ці [темні патерни](https://www.darkpatterns.org/) можуть завдати соціальної та економічної шкоди користувачам. Оскільки рішення користувачів впливають на профілі поведінки, ці дії потенційно формують майбутні вибори, що може посилити або продовжити вплив цих шкод. Питання для розгляду: * Чи користувач розумів наслідки прийняття цього рішення? * Чи користувач був обізнаний про (альтернативні) варіанти та їхні переваги й недоліки? * Чи може користувач скасувати автоматизований або впливовий вибір пізніше? ### 3. Кейси Щоб розглянути ці етичні виклики в реальних контекстах, корисно звернутися до кейсів, які демонструють потенційні шкоди та наслідки для окремих осіб і суспільства, коли такі порушення етики ігноруються. Ось кілька прикладів: | Етичний виклик | Кейси | |--- |--- | | **Інформована згода** | 1972 - [Дослідження сифілісу в Таскігі](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - афроамериканські чоловіки, які брали участь у дослідженні, отримали обіцянку безкоштовного медичного обслуговування, _але були обмануті_ дослідниками, які не повідомили їм про діагноз або доступність лікування. Багато учасників померли, а їхні партнери чи діти постраждали; дослідження тривало 40 років. | | **Конфіденційність даних** | 2007 - [Конкурс даних Netflix](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) надав дослідникам _10 млн анонімних оцінок фільмів від 50 тис. клієнтів_, щоб покращити алгоритми рекомендацій. Однак дослідники змогли зіставити анонімні дані з персонально ідентифікованими даними в _зовнішніх наборах даних_ (наприклад, коментарі IMDb), фактично "деанонімізуючи" деяких підписників Netflix.| | **Упередженість у зборі даних** | 2013 - Місто Бостон [розробило Street Bump](https://www.boston.gov/transportation/street-bump), додаток, який дозволяв громадянам повідомляти про ями, надаючи місту кращі дані про дороги для вирішення проблем. Однак [люди з низьким рівнем доходу мали менший доступ до автомобілів і телефонів](https://hbr.org/2013/04/the-hidden-biases-in-big-data), що робило їхні проблеми з дорогами невидимими в цьому додатку. Розробники співпрацювали з академіками для вирішення питань _справедливого доступу та цифрових розривів_. | | **Справедливість алгоритмів** | 2018 - Дослідження MIT [Gender Shades](http://gendershades.org/overview.html) оцінювало точність продуктів AI для класифікації гендеру, виявляючи прогалини в точності для жінок і людей кольору. У [2019 році Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) здавалося, пропонувала менший кредит жінкам, ніж чоловікам. Обидва випадки ілюструють проблеми упередженості алгоритмів, що призводять до соціально-економічних шкод.| | **Викривлення даних** | 2020 - [Департамент охорони здоров'я Джорджії опублікував графіки COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), які, здається, вводили громадян в оману щодо тенденцій підтверджених випадків через не-хронологічне упорядкування на осі x. Це ілюструє викривлення через трюки візуалізації. | | **Ілюзія вільного вибору** | 2020 - Навчальний додаток [ABCmouse заплатив $10 млн для врегулювання скарги FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), де батьки були змушені платити за підписки, які вони не могли скасувати. Це ілюструє темні патерни в архітектурах вибору, де користувачів підштовхували до потенційно шкідливих рішень. | | **Конфіденційність даних та права користувачів** | 2021 - [Витік даних Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) розкрив дані 530 млн користувачів, що призвело до штрафу $5 млрд від FTC. Однак компанія відмовилася повідомити користувачів про витік, порушуючи права користувачів щодо прозорості даних і доступу. | Хочете дослідити більше кейсів? Ознайомтеся з цими ресурсами: * [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - етичні дилеми в різних галузях. * [Курс з етики в Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - аналіз ключових кейсів. * [Де все пішло не так](https://deon.drivendata.org/examples/) - чекліст Deon з прикладами. > 🚨 Подумайте про кейси, які ви бачили - чи ви стикалися або були під впливом подібного етичного виклику у своєму житті? Чи можете ви згадати хоча б один інший кейс, який ілюструє один із етичних викликів, обговорених у цьому розділі? ## Прикладна етика Ми обговорили концепції етики, виклики та кейси в реальних контекстах. Але як почати _застосовувати_ етичні принципи та практики у своїх проєктах? І як _операціоналізувати_ ці практики для кращого управління? Давайте розглянемо деякі реальні рішення: ### 1. Професійні кодекси Професійні кодекси пропонують один із варіантів для організацій "стимулювати" членів підтримувати їхні етичні принципи та місію. Кодекси є _моральними орієнтирами_ для професійної поведінки, допомагаючи співробітникам або членам приймати рішення, які відповідають принципам організації. Вони ефективні настільки, наскільки добровільно дотримуються членами; однак багато організацій пропонують додаткові винагороди та санкції для мотивації дотримання. Приклади: * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Кодекс етики * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Кодекс поведінки (створений у 2013 році) * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (з 1993 року) > 🚨 Ви є членом професійної інженерної або організації з Data Science? Досліджуйте їхній сайт, щоб дізнатися, чи вони визначають професійний кодекс етики. Що це говорить про їхні етичні принципи? Як вони "стимулюють" членів дотримуватися кодексу? ### 2. Етичні чеклісти Хоча професійні кодекси визначають необхідну _етичну поведінку_ від практиків, вони [мають відомі обмеження](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) у забезпеченні виконання, особливо в масштабних проєктах. Натомість багато експертів з Data Science [рекомендують чеклісти](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), які можуть **з'єднувати принципи з практиками** більш детермінованим і дієвим способом. Чеклісти перетворюють питання на "так/ні" завдання, які можна операціоналізувати, дозволяючи їх відстежувати як частину стандартних робочих процесів випуску продукту. Приклади: * [Deon](https://deon.drivendata.org/) - універсальний чекліст етики даних, створений на основі [рекомендацій галузі](https://deon.drivendata.org/#checklist-citations) з інструментом командного рядка для легкої інтеграції. * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - надає загальні рекомендації щодо практик обробки інформації з юридичної та соціальної точки зору. * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - створений практиками AI для підтримки впровадження перевірок справедливості в цикли розробки AI. * [22 питання для етики в даних та AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - більш відкритий формат, структурований для початкового дослідження етичних питань у дизайні, впровадженні та організаційних контекстах. ### 3. Етичні регуляції Етика стосується визначення спільних цінностей і добровільного виконання "правильних речей". **Дотримання** стосується _виконання закону_, якщо він визначений. **Управління** охоплює всі способи, якими організації працюють для забезпечення етичних принципів і дотримання встановлених законів. Сьогодні управління має дві форми в організаціях. По-перше, це визначення принципів **етичного AI** і встановлення практик для операціоналізації впровадження у всіх проєктах, пов'язаних з AI, в організації. По-друге, це дотримання всіх урядових регуляцій щодо **захисту даних**, які діють у регіонах, де організація працює. Приклади регуляцій щодо захисту даних і конфіденційності: * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - регулює _федеральний уряд_ щодо збору, використання та розкриття персональної інформації. * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - захищає персональні медичні дані. * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - захищає конфіденційність даних дітей до 13 років. * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - забезпечує права користувачів, захист даних і конфіденційність. * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - надає споживачам більше _прав_ щодо їхніх (персональних) даних. * `2021`, Китайський [Закон про захист персональної інформації](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) щойно прийнятий, створюючи один із найсильніших регуляцій щодо конфіденційності даних онлайн у світі. > 🚨 Європейський Союз визначив GDPR (General Data Protection Regulation), який залишається одним із найвпливовіших регуляцій щодо конфіденційності даних сьогодні. Чи знали ви, що він також визначає [8 прав користувачів](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) для захисту цифрової конфіденційності та персональних даних громадян? Дізнайтеся, що це за права і чому вони важливі. ### 4. Культура етики Зверніть увагу, що залишається невловима різниця між _дотриманням_ (виконанням "букви закону") і вирішенням [системних проблем](https://www.coursera.org/learn/data-science-ethics/home/week/4) (таких як закостенілість, інформаційна асиметрія та розподільна несправедливість), які можуть прискорити використання AI у шкідливих цілях. Останнє вимагає [спільних підходів до визначення культури етики](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), які створюють емоційні зв'язки та послідовні спільні цінності _в організаціях_ галузі. Це закликає до більш [формалізованих культур етики даних](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) в організаціях - дозволяючи _будь-кому_ [потягнути шнур Андон](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (щоб підняти етичні питання на ранніх етапах процесу) і роблячи _етичні оцінки_ (наприклад, при наймі) основним критерієм формування команд у проєктах AI. --- ## [Післялекційний тест](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯 ## Огляд і самостійне навчання Курси та книги допомагають зрозуміти основні концепції етики та виклики, а кейси та інструменти допомагають із практикою прикладної етики в реальних контекстах. Ось кілька ресурсів для початку: * [Machine Learning For Beginners](https://github * [Принципи відповідального штучного інтелекту](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - безкоштовний навчальний курс від Microsoft Learn. * [Етика та наука про дані](https://resources.oreilly.com/examples/0636920203964) - електронна книга від O'Reilly (М. Лоукідес, Х. Мейсон та ін.). * [Етика в науці про дані](https://www.coursera.org/learn/data-science-ethics#syllabus) - онлайн-курс від Мічиганського університету. * [Етика в дії](https://ethicsunwrapped.utexas.edu/case-studies) - кейс-стадії від Техаського університету. # Завдання [Напишіть кейс-стадію з етики даних](assignment.md) --- **Відмова від відповідальності**: Цей документ було перекладено за допомогою сервісу автоматичного перекладу [Co-op Translator](https://github.com/Azure/co-op-translator). Хоча ми прагнемо до точності, звертаємо вашу увагу, що автоматичні переклади можуть містити помилки або неточності. Оригінальний документ мовою оригіналу слід вважати авторитетним джерелом. Для критично важливої інформації рекомендується звертатися до професійного людського перекладу. Ми не несемо відповідальності за будь-які непорозуміння або неправильні тлумачення, що виникли внаслідок використання цього перекладу.