You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/ru/1-Introduction/02-ethics/README.md

266 lines
46 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
"translation_date": "2025-09-06T06:17:50+00:00",
"source_file": "1-Introduction/02-ethics/README.md",
"language_code": "ru"
}
-->
# Введение в этику данных
|![ Скетчноут от [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)|
|:---:|
| Этика науки о данных - _Скетчноут от [@nitya](https://twitter.com/nitya)_ |
---
Мы все являемся гражданами мира данных, живущими в эпоху цифровизации.
Рыночные тренды показывают, что к 2022 году каждая третья крупная организация будет покупать и продавать свои данные через онлайн-[площадки и биржи](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Как **разработчики приложений**, мы обнаружим, что интеграция аналитики, основанной на данных, и автоматизации, управляемой алгоритмами, в повседневный пользовательский опыт станет проще и дешевле. Однако с распространением ИИ нам также придется понимать потенциальный вред, который может быть вызван [использованием алгоритмов в качестве оружия](https://www.youtube.com/watch?v=TQHs8SA1qpk) в масштабах.
Тренды также указывают на то, что к 2025 году мы будем создавать и потреблять более [180 зеттабайт](https://www.statista.com/statistics/871513/worldwide-data-created/) данных. Как **ученые данных**, мы получаем беспрецедентный доступ к персональным данным. Это позволяет нам строить поведенческие профили пользователей и влиять на принятие решений таким образом, чтобы создавать [иллюзию свободного выбора](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), при этом потенциально подталкивая пользователей к предпочтительным для нас результатам. Это также поднимает более широкие вопросы о конфиденциальности данных и защите пользователей.
Этика данных становится еобходимыми ограничителями_ для науки о данных и инженерии, помогая минимизировать потенциальный вред и непредвиденные последствия наших действий, основанных на данных. [Цикл ажиотажа Gartner для ИИ](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) выделяет актуальные тренды в области цифровой этики, ответственного ИИ и управления ИИ как ключевые драйверы более крупных мегатрендов, связанных с емократизацией_ и _индустриализацией_ ИИ.
![Цикл ажиотажа Gartner для ИИ - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==)
В этом уроке мы изучим увлекательную область этики данных - от основных концепций и вызовов до примеров из практики и прикладных концепций ИИ, таких как управление, которые помогают создавать культуру этики в командах и организациях, работающих с данными и ИИ.
## [Тест перед лекцией](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
## Основные определения
Начнем с понимания базовой терминологии.
Слово "этика" происходит от [греческого слова "ethikos"](https://en.wikipedia.org/wiki/Ethics) (и его корня "ethos"), что означает _характер или моральная природа_.
**Этика** касается общих ценностей и моральных принципов, которые регулируют наше поведение в обществе. Этика основывается не на законах, а на широко принятых нормах того, что является "правильным или неправильным". Однако этические соображения могут влиять на корпоративное управление и государственное регулирование, создавая больше стимулов для соблюдения норм.
**Этика данных** - это [новая ветвь этики](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), которая "изучает и оценивает моральные проблемы, связанные с анными, алгоритмами и соответствующими практиками_". Здесь **"данные"** сосредоточены на действиях, связанных с генерацией, записью, обработкой, распространением, обменом и использованием данных, **"алгоритмы"** - на ИИ, агентах, машинном обучении и роботах, а **"практики"** - на таких темах, как ответственное новаторство, программирование, хакерство и кодексы этики.
**Прикладная этика** - это [практическое применение моральных соображений](https://en.wikipedia.org/wiki/Applied_ethics). Это процесс активного изучения этических вопросов в контексте _реальных действий, продуктов и процессов_ и принятия корректирующих мер, чтобы они оставались в соответствии с нашими определенными этическими ценностями.
**Культура этики** касается [_операционализации_ прикладной этики](https://hbr.org/2019/05/how-to-design-an-ethical-organization), чтобы гарантировать, что наши этические принципы и практики применяются последовательно и масштабируемо по всей организации. Успешные культуры этики определяют этические принципы на уровне всей организации, предоставляют значимые стимулы для соблюдения норм и укрепляют этические нормы, поощряя и усиливая желаемое поведение на каждом уровне организации.
## Концепции этики
В этом разделе мы обсудим такие концепции, как **общие ценности** (принципы) и **этические вызовы** (проблемы) для этики данных, а также изучим **примеры из практики**, которые помогут вам понять эти концепции в реальных контекстах.
### 1. Принципы этики
Любая стратегия этики данных начинается с определения _этических принципов_ - "общих ценностей", которые описывают допустимое поведение и направляют действия, соответствующие нормам, в наших проектах, связанных с данными и ИИ. Вы можете определить их на индивидуальном или командном уровне. Однако большинство крупных организаций формулируют их в виде миссии или рамочной программы _этического ИИ_, которая определяется на корпоративном уровне и последовательно применяется ко всем командам.
**Пример:** Миссия Microsoft по [ответственному ИИ](https://www.microsoft.com/en-us/ai/responsible-ai) гласит: _"Мы стремимся к развитию ИИ, основанного на этических принципах, которые ставят людей на первое место"_ - определяя 6 этических принципов в следующей рамке:
![Ответственный ИИ в Microsoft](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png)
Давайте кратко рассмотрим эти принципы. розрачность_ и _ответственность_ являются основополагающими ценностями, на которых строятся остальные принципы, поэтому начнем с них:
* [**Ответственность**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) делает практиков _ответственными_ за их действия с данными и ИИ, а также за соблюдение этих этических принципов.
* [**Прозрачность**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) гарантирует, что действия с данными и ИИ _понятны_ пользователям, объясняя, что и почему было сделано.
* [**Справедливость**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - фокусируется на том, чтобы ИИ относился ко сем людям_ справедливо, устраняя любые системные или скрытые социально-технические предвзятости в данных и системах.
* [**Надежность и безопасность**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - гарантирует, что ИИ действует _последовательно_ в соответствии с определенными ценностями, минимизируя потенциальный вред или непредвиденные последствия.
* [**Конфиденциальность и безопасность**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - касается понимания происхождения данных и предоставления ащиты конфиденциальности данных_ пользователям.
* [**Инклюзивность**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - касается проектирования решений ИИ с учетом _широкого спектра человеческих потребностей_ и возможностей.
> 🚨 Подумайте, какой могла бы быть ваша миссия в области этики данных. Изучите рамки этического ИИ других организаций - вот примеры от [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) и [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Какие общие ценности у них есть? Как эти принципы соотносятся с продуктами ИИ или отраслью, в которой они работают?
### 2. Этические вызовы
После определения этических принципов следующий шаг - оценить наши действия с данными и ИИ, чтобы убедиться, что они соответствуют этим общим ценностям. Подумайте о своих действиях в двух категориях: _сбор данных_ и _разработка алгоритмов_.
При сборе данных действия, скорее всего, будут включать **персональные данные** или персонально идентифицируемую информацию (PII) для идентифицируемых живых лиц. Это включает [разнообразные элементы неперсональных данных](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), которые совокупности_ идентифицируют человека. Этические вызовы могут быть связаны с онфиденциальностью данных_, _правами собственности на данные_ и такими темами, как _информированное согласие_ и _права интеллектуальной собственности_ пользователей.
При разработке алгоритмов действия будут включать сбор и курирование **наборов данных**, а затем их использование для обучения и развертывания **моделей данных**, которые предсказывают результаты или автоматизируют решения в реальных контекстах. Этические вызовы могут возникать из-за _предвзятости наборов данных_, проблем с ачеством данных_, есправедливости_ и скажений_ в алгоритмах, включая некоторые системные проблемы.
В обоих случаях этические вызовы подчеркивают области, где наши действия могут вступать в конфликт с нашими общими ценностями. Чтобы выявить, смягчить, минимизировать или устранить эти проблемы, нам нужно задавать моральные вопросы "да/нет", связанные с нашими действиями, а затем принимать корректирующие меры по мере необходимости. Давайте рассмотрим некоторые этические вызовы и моральные вопросы, которые они поднимают:
#### 2.1 Право собственности на данные
Сбор данных часто включает персональные данные, которые могут идентифицировать субъектов данных. [Право собственности на данные](https://permission.io/blog/data-ownership) касается онтроля_ и [_прав пользователей_](https://permission.io/blog/data-ownership), связанных с созданием, обработкой и распространением данных.
Моральные вопросы, которые нужно задать:
* Кому принадлежат данные? (пользователю или организации)
* Какие права есть у субъектов данных? (например, доступ, удаление, переносимость)
* Какие права есть у организаций? (например, исправление злонамеренных отзывов пользователей)
#### 2.2 Информированное согласие
[Информированное согласие](https://legaldictionary.net/informed-consent/) определяет акт согласия пользователей на действие (например, сбор данных) с _полным пониманием_ соответствующих фактов, включая цель, потенциальные риски и альтернативы.
Вопросы для изучения:
* Дал ли пользователь (субъект данных) разрешение на сбор и использование данных?
* Понял ли пользователь цель, для которой были собраны данные?
* Понял ли пользователь потенциальные риски своего участия?
#### 2.3 Интеллектуальная собственность
[Интеллектуальная собственность](https://en.wikipedia.org/wiki/Intellectual_property) относится к нематериальным результатам человеческой инициативы, которые могут _иметь экономическую ценность_ для отдельных лиц или бизнеса.
Вопросы для изучения:
* Имеют ли собранные данные экономическую ценность для пользователя или бизнеса?
* Есть ли у **пользователя** права интеллектуальной собственности?
* Есть ли у **организации** права интеллектуальной собственности?
* Если такие права существуют, как мы их защищаем?
#### 2.4 Конфиденциальность данных
[Конфиденциальность данных](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) или информационная конфиденциальность касается сохранения конфиденциальности пользователей и защиты их идентичности в отношении персонально идентифицируемой информации.
Вопросы для изучения:
* Защищены ли данные пользователей от взломов и утечек?
* Доступны ли данные пользователей только авторизованным лицам и в соответствующих контекстах?
* Сохраняется ли анонимность пользователей при обмене или распространении данных?
* Можно ли деидентифицировать пользователя из анонимизированных наборов данных?
#### 2.5 Право быть забытым
[Право быть забытым](https://en.wikipedia.org/wiki/Right_to_be_forgotten) или [право на удаление](https://www.gdpreu.org/right-to-be-forgotten/) предоставляет пользователям дополнительную защиту персональных данных. Оно позволяет пользователям запрашивать удаление или удаление персональных данных из интернет-поисков и других мест, _при определенных обстоятельствах_, давая им возможность начать заново без учета прошлых действий.
Вопросы для изучения:
* Позволяет ли система субъектам данных запрашивать удаление данных?
* Должно ли отозвание согласия пользователя автоматически приводить к удалению данных?
* Были ли данные собраны без согласия или незаконным способом?
* Соответствуем ли мы государственным нормам по защите данных?
#### 2.6 Предвзятость наборов данных
Предвзятость наборов данных или [предвзятость при сборе данных](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) касается выбора ерепрезентативного_ подмножества данных для разработки алгоритмов, что может привести к несправедливым результатам для различных групп. Типы предвзятости включают предвзятость при отборе, предвзятость добровольцев и инструментальную предвзятость.
Вопросы для изучения:
* Привлекли ли мы репрезентативный набор субъектов данных?
* Проверили ли мы наш собранный или курированный набор данных на наличие различных предвзятостей?
* Можем ли мы смягчить или устранить обнаруженные предвзятости?
#### 2.7 Качество данных
[Качество данных](https://lakefs.io/data-quality-testing/) оценивает достоверность курированного набора данных, используемого для разработки наших алгоритмов, проверяя, соответствуют ли признаки и записи требованиям к уровню точности и согласованности, необходимым для нашей цели ИИ.
Вопросы для изучения:
* Захватили ли мы действительные _признаки_ для нашего случая использования?
* Были ли данные захвачены _последовательно_ из различных источников данных?
* Полон ли набор данных для различных условий или сценариев?
* Точно ли информация отражает реальность?
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) проверяет, не приводит ли дизайн алгоритма к систематической дискриминации определенных подгрупп субъектов данных, что может вызывать [потенциальный вред](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) в _распределении_ (когда ресурсы отказываются или удерживаются от этой группы) и ачестве обслуживания_ (когда ИИ менее точен для некоторых подгрупп по сравнению с другими).
Вопросы для изучения:
* Оценивали ли мы точность модели для различных подгрупп и условий?
* Анализировали ли мы систему на предмет потенциального вреда (например, стереотипов)?
* Можем ли мы пересмотреть данные или переобучить модели, чтобы уменьшить выявленный вред?
Изучите ресурсы, такие как [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), чтобы узнать больше.
#### 2.9 Искажение данных
[Искажение данных](https://www.sciencedirect.com/topics/computer-science/misrepresentation) касается вопроса, не передаем ли мы инсайты из честно представленных данных обманным образом для поддержки желаемого нарратива.
Вопросы для изучения:
* Сообщаем ли мы неполные или неточные данные?
* Визуализируем ли мы данные таким образом, чтобы они приводили к вводящим в заблуждение выводам?
* Используем ли мы выборочные статистические методы для манипуляции результатами?
* Существуют ли альтернативные объяснения, которые могут предложить другой вывод?
#### 2.10 Свобода выбора
[Иллюзия свободы выбора](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) возникает, когда "архитектуры выбора" системы используют алгоритмы принятия решений, чтобы подтолкнуть людей к предпочтительному результату, создавая видимость наличия у них вариантов и контроля. Эти [темные паттерны](https://www.darkpatterns.org/) могут причинять социальный и экономический вред пользователям. Поскольку решения пользователей влияют на профили поведения, эти действия потенциально формируют будущие выборы, усиливая или расширяя воздействие этих вредных последствий.
Вопросы для изучения:
* Понимал ли пользователь последствия принятия этого выбора?
* Был ли пользователь осведомлен о (альтернативных) вариантах и их плюсах и минусах?
* Может ли пользователь отменить автоматизированный или навязанный выбор позже?
### 3. Примеры из практики
Чтобы рассмотреть этические вызовы в реальных контекстах, полезно изучить примеры из практики, которые подчеркивают потенциальный вред и последствия для отдельных людей и общества, если такие нарушения этики игнорируются.
Вот несколько примеров:
| Этический вызов | Пример из практики |
|--- |--- |
| **Осознанное согласие** | 1972 - [Исследование сифилиса в Таскиги](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - афроамериканским мужчинам, участвовавшим в исследовании, обещали бесплатное медицинское обслуживание, о обманули_, не сообщив им о диагнозе или доступности лечения. Многие участники умерли, а их партнеры или дети пострадали; исследование длилось 40 лет. |
| **Конфиденциальность данных** | 2007 - [Приз Netflix](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) предоставил исследователям _10 миллионов анонимных оценок фильмов от 50 тысяч клиентов_, чтобы улучшить алгоритмы рекомендаций. Однако исследователи смогли сопоставить анонимные данные с персонально идентифицируемыми данными из _внешних наборов данных_ (например, комментарии IMDb), фактически "деанонимизировав" некоторых подписчиков Netflix.|
| **Смещение в сборе данных** | 2013 - Город Бостон [разработал Street Bump](https://www.boston.gov/transportation/street-bump), приложение, позволяющее гражданам сообщать о выбоинах, предоставляя городу лучшие данные о дорогах для выявления и устранения проблем. Однако [люди с низким доходом имели меньший доступ к автомобилям и телефонам](https://hbr.org/2013/04/the-hidden-biases-in-big-data), что делало их дорожные проблемы невидимыми для этого приложения. Разработчики работали с учеными над вопросами _равного доступа и цифрового разрыва_ для обеспечения справедливости. |
| **Справедливость алгоритмов** | 2018 - Исследование MIT [Gender Shades](http://gendershades.org/overview.html) оценило точность продуктов ИИ для классификации пола, выявив пробелы в точности для женщин и людей с цветной кожей. [Карта Apple 2019 года](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/), казалось, предлагала меньший кредит женщинам, чем мужчинам. Оба случая иллюстрируют проблемы алгоритмического смещения, приводящие к социально-экономическим последствиям.|
| **Искажение данных** | 2020 - [Департамент здравоохранения Джорджии выпустил графики COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), которые, казалось, вводили граждан в заблуждение относительно тенденций подтвержденных случаев с не хронологическим порядком на оси x. Это иллюстрирует искажение через визуализационные трюки. |
| **Иллюзия свободы выбора** | 2020 - Образовательное приложение [ABCmouse выплатило $10 млн для урегулирования жалобы FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), где родители были вынуждены платить за подписки, которые они не могли отменить. Это иллюстрирует темные паттерны в архитектурах выбора, где пользователи были подтолкнуты к потенциально вредным решениям. |
| **Конфиденциальность данных и права пользователей** | 2021 - [Утечка данных Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) раскрыла данные 530 миллионов пользователей, что привело к штрафу в $5 млрд от FTC. Однако компания отказалась уведомить пользователей о нарушении, нарушив их права на прозрачность данных и доступ. |
Хотите изучить больше примеров из практики? Ознакомьтесь с этими ресурсами:
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - этические дилеммы в различных отраслях.
* [Курс по этике в Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - изучение знаковых примеров из практики.
* [Где все пошло не так](https://deon.drivendata.org/examples/) - чеклист Deon с примерами.
> 🚨 Подумайте о примерах из практики, которые вы видели - сталкивались ли вы или были ли затронуты подобным этическим вызовом в своей жизни? Можете ли вы придумать хотя бы один другой пример, который иллюстрирует один из этических вызовов, обсуждаемых в этом разделе?
## Прикладная этика
Мы обсудили концепции этики, вызовы и примеры из практики в реальных контекстах. Но как начать _применять_ этические принципы и практики в своих проектах? И как _операционализировать_ эти практики для лучшего управления? Давайте изучим несколько реальных решений:
### 1. Профессиональные кодексы
Профессиональные кодексы предлагают один из вариантов для организаций "мотивировать" членов поддерживать их этические принципы и миссию. Кодексы являются оральными ориентирами_ для профессионального поведения, помогая сотрудникам или членам принимать решения, соответствующие принципам их организации. Они эффективны только при добровольном соблюдении со стороны членов; однако многие организации предлагают дополнительные награды и штрафы для мотивации соблюдения.
Примеры включают:
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Кодекс этики
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Кодекс поведения (создан в 2013 году)
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (с 1993 года)
> 🚨 Вы являетесь членом профессиональной инженерной или организации в области Data Science? Изучите их сайт, чтобы узнать, определяют ли они профессиональный кодекс этики. Что он говорит об их этических принципах? Как они "мотивируют" членов следовать кодексу?
### 2. Этические чеклисты
Хотя профессиональные кодексы определяют требуемое _этическое поведение_ от практиков, они [имеют известные ограничения](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) в обеспечении соблюдения, особенно в крупных проектах. Вместо этого многие эксперты в области Data Science [рекомендуют чеклисты](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), которые могут **связать принципы с практиками** более детерминированным и действенным образом.
Чеклисты превращают вопросы в задачи "да/нет", которые можно операционализировать, позволяя отслеживать их как часть стандартных рабочих процессов выпуска продукта.
Примеры включают:
* [Deon](https://deon.drivendata.org/) - универсальный чеклист по этике данных, созданный на основе [рекомендаций отрасли](https://deon.drivendata.org/#checklist-citations) с инструментом командной строки для легкой интеграции.
* [Чеклист аудита конфиденциальности](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - предоставляет общие рекомендации по практике обработки информации с точки зрения юридической и социальной экспозиции.
* [Чеклист справедливости ИИ](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - создан практиками ИИ для поддержки внедрения и интеграции проверок справедливости в циклы разработки ИИ.
* [22 вопроса по этике данных и ИИ](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - более открытая структура, предназначенная для начального изучения этических вопросов в дизайне, реализации и организационных контекстах.
### 3. Регулирование этики
Этика касается определения общих ценностей и добровольного выполнения правильных действий. **Соблюдение** касается _следования закону_, если он определен. **Управление** охватывает все способы, которыми организации работают для обеспечения соблюдения этических принципов и выполнения установленных законов.
Сегодня управление принимает две формы в рамках организаций. Во-первых, это определение принципов **этического ИИ** и установление практик для операционализации их внедрения во всех проектах, связанных с ИИ, в организации. Во-вторых, это соблюдение всех государственных **регламентов защиты данных**, действующих в регионах, где организация работает.
Примеры регламентов защиты данных и конфиденциальности:
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - регулирует сбор, использование и раскрытие личной информации едеральным правительством_.
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - защищает персональные медицинские данные.
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - защищает конфиденциальность данных детей младше 13 лет.
* `2018`, [Общий регламент защиты данных (GDPR)](https://gdpr-info.eu/) - предоставляет права пользователей, защиту данных и конфиденциальность.
* `2018`, [Закон о конфиденциальности потребителей Калифорнии (CCPA)](https://www.oag.ca.gov/privacy/ccpa) предоставляет потребителям больше _прав_ на их (персональные) данные.
* `2021`, Китайский [Закон о защите персональной информации](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) недавно принят, создавая один из самых сильных онлайн-регламентов конфиденциальности данных в мире.
> 🚨 Европейский Союз определил GDPR (Общий регламент защиты данных), который остается одним из самых влиятельных регламентов конфиденциальности данных сегодня. Знаете ли вы, что он также определяет [8 прав пользователей](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) для защиты цифровой конфиденциальности и персональных данных граждан? Узнайте, что это за права и почему они важны.
### 4. Культура этики
Обратите внимание, что существует нематериальный разрыв между _соблюдением_ (выполнение достаточного для соответствия "букве закона") и решением [системных проблем](https://www.coursera.org/learn/data-science-ethics/home/week/4) (таких как окаменелость, информационная асимметрия и несправедливость распределения), которые могут ускорить использование ИИ в вредных целях.
Последнее требует [коллаборативных подходов к определению культур этики](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), которые строят эмоциональные связи и последовательные общие ценности организациях_ отрасли. Это требует более [формализованных культур этики данных](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) в организациях - позволяя _любому_ [потянуть шнур Андон](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (чтобы поднять этические вопросы на ранних этапах процесса) и делая _этические оценки_ (например, при найме) основным критерием формирования команды в проектах ИИ.
---
## [Викторина после лекции](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
## Обзор и самостоятельное изучение
Курсы и книги помогают понять основные концепции и вызовы этики, а примеры из практики и инструменты помогают применять этические практики в реальных контекстах. Вот несколько ресурсов для начала:
* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - урок о справедливости от Microsoft.
* [Принципы ответственного ИИ](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - бесплатный учебный курс от Microsoft Learn.
* [Этика и наука о данных](https://resources.oreilly.com/examples/0636920203964) - электронная книга от O'Reilly (М. Лукидес, Х. Мейсон и др.)
* [Этика в науке о данных](https://www.coursera.org/learn/data-science-ethics#syllabus) - онлайн-курс от Университета Мичигана.
* [Этика в деталях](https://ethicsunwrapped.utexas.edu/case-studies) - примеры из Университета Техаса.
# Задание
[Напишите кейс по этике данных](assignment.md)
---
**Отказ от ответственности**:
Этот документ был переведен с помощью сервиса автоматического перевода [Co-op Translator](https://github.com/Azure/co-op-translator). Хотя мы стремимся к точности, пожалуйста, имейте в виду, что автоматические переводы могут содержать ошибки или неточности. Оригинальный документ на его исходном языке следует считать авторитетным источником. Для получения критически важной информации рекомендуется профессиональный перевод человеком. Мы не несем ответственности за любые недоразумения или неправильные толкования, возникшие в результате использования данного перевода.