You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/translations/ru/1-Introduction/3-fairness/README.md

30 KiB

Создание решений машинного обучения с ответственным ИИ

Сводка ответственного ИИ в машинном обучении в виде эскиза

Эскиз от Tomomi Imura

Викторина перед лекцией

Введение

В этом учебном курсе вы начнете узнавать, как машинное обучение влияет на нашу повседневную жизнь. Даже сейчас системы и модели участвуют в ежедневных задачах принятия решений, таких как диагностика в здравоохранении, одобрение кредитов или выявление мошенничества. Поэтому важно, чтобы эти модели работали хорошо и обеспечивали надежные результаты. Как и любое программное приложение, системы ИИ могут не соответствовать ожиданиям или приводить к нежелательным результатам. Вот почему так важно понимать и объяснять поведение модели ИИ.

Представьте, что может произойти, когда данные, которые вы используете для создания этих моделей, не охватывают определенные демографические группы, такие как раса, пол, политические взгляды, религия, или непропорционально представляют такие демографические группы. Что произойдет, если выход модели будет интерпретироваться как предвзятость в пользу какой-то демографической группы? Каковы будут последствия для приложения? Кроме того, что происходит, когда модель приводит к негативному результату и наносит вред людям? Кто несет ответственность за поведение систем ИИ? Это некоторые вопросы, которые мы будем исследовать в этом курсе.

В этом уроке вы:

  • Повысите свою осведомленность о важности справедливости в машинном обучении и связанных с ней вредах.
  • Ознакомитесь с практикой исследования выбросов и необычных сценариев для обеспечения надежности и безопасности.
  • Поймете необходимость предоставления возможностей всем, создавая инклюзивные системы.
  • Исследуете, насколько важно защищать конфиденциальность и безопасность данных и людей.
  • Увидите важность подхода "стеклянной коробки" для объяснения поведения моделей ИИ.
  • Осознаете, как ответственность важна для создания доверия к системам ИИ.

Предварительные требования

В качестве предварительного требования, пожалуйста, пройдите учебный путь "Принципы ответственного ИИ" и посмотрите видео ниже на эту тему:

Узнайте больше об ответственном ИИ, следуя по этому учебному пути

Подход Microsoft к ответственному ИИ

🎥 Нажмите на изображение выше для просмотра видео: Подход Microsoft к ответственному ИИ

Справедливость

Системы ИИ должны относиться ко всем справедливо и избегать воздействия на схожие группы людей различными способами. Например, когда системы ИИ дают рекомендации по медицинскому лечению, заявкам на кредит или трудоустройству, они должны давать одинаковые рекомендации всем с похожими симптомами, финансовыми обстоятельствами или профессиональными квалификациями. Каждый из нас, как человек, несет унаследованные предвзятости, которые влияют на наши решения и действия. Эти предвзятости могут быть очевидны в данных, которые мы используем для обучения систем ИИ. Такие манипуляции иногда происходят непреднамеренно. Часто сложно осознать, когда вы вводите предвзятость в данные.

"Несправедливость" охватывает негативные последствия или "вред" для группы людей, таких как те, кто определяется по расе, полу, возрасту или статусу инвалидности. Основные вреды, связанные со справедливостью, можно классифицировать как:

  • Распределение, если один пол или этническая группа, например, предпочитается перед другим.
  • Качество обслуживания. Если вы обучаете данные для одного конкретного сценария, но реальность намного сложнее, это приводит к плохому качеству обслуживания. Например, диспенсер для мыла, который, похоже, не может обнаружить людей с темной кожей. Ссылка
  • Уничижение. Несправедливо критиковать и маркировать что-то или кого-то. Например, технология маркировки изображений, печально известная тем, что неверно классифицировала изображения людей с темной кожей как горилл.
  • Чрезмерное или недостаточное представительство. Идея заключается в том, что определенная группа не представлена в определенной профессии, и любая служба или функция, которая продолжает это поддерживать, способствует вреду.
  • Стереотипизация. Ассоциация данной группы с предопределенными атрибутами. Например, система перевода между английским и турецким языками может иметь неточности из-за слов с стереотипными ассоциациями к полу.

перевод на турецкий

перевод на турецкий

перевод обратно на английский

перевод обратно на английский

При проектировании и тестировании систем ИИ мы должны убедиться, что ИИ справедлив и не запрограммирован на принятие предвзятых или дискриминационных решений, которые также запрещены для человека. Гарантия справедливости в ИИ и машинном обучении остается сложной социотехнической задачей.

Надежность и безопасность

Чтобы завоевать доверие, системы ИИ должны быть надежными, безопасными и последовательными в нормальных и неожиданных условиях. Важно знать, как системы ИИ будут вести себя в различных ситуациях, особенно когда они являются выбросами. При создании решений ИИ необходимо уделить значительное внимание тому, как справляться с широким спектром обстоятельств, с которыми могут столкнуться решения ИИ. Например, автономный автомобиль должен ставить безопасность людей в приоритет. В результате ИИ, управляющий автомобилем, должен учитывать все возможные сценарии, с которыми может столкнуться автомобиль, такие как ночь, грозы или метели, дети, бегущие через улицу, домашние животные, дорожные работы и т. д. Насколько хорошо система ИИ может надежно и безопасно справляться с широким диапазоном условий, отражает уровень предвидения, который ученый данных или разработчик ИИ учел во время проектирования или тестирования системы.

🎥 Нажмите здесь для просмотра видео:

Инклюзивность

Системы ИИ должны быть разработаны для вовлечения и предоставления возможностей всем. При проектировании и внедрении систем ИИ ученые данных и разработчики ИИ определяют и устраняют потенциальные барьеры в системе, которые могут непреднамеренно исключать людей. Например, в мире есть 1 миллиард людей с ограниченными возможностями. С развитием ИИ они могут легче получать доступ к широкому спектру информации и возможностей в своей повседневной жизни. Устранение барьеров создает возможности для инноваций и разработки ИИ-продуктов с лучшими впечатлениями, которые приносят пользу всем.

🎥 Нажмите здесь для просмотра видео: инклюзивность в ИИ

Безопасность и конфиденциальность

Системы ИИ должны быть безопасными и уважать конфиденциальность людей. Люди меньше доверяют системам, которые ставят под угрозу их конфиденциальность, информацию или жизнь. При обучении моделей машинного обучения мы полагаемся на данные для получения наилучших результатов. При этом необходимо учитывать происхождение данных и их целостность. Например, были ли данные предоставлены пользователем или доступны публично? Далее, работая с данными, важно разрабатывать системы ИИ, которые могут защищать конфиденциальную информацию и противостоять атакам. Поскольку ИИ становится все более распространенным, защита конфиденциальности и обеспечение безопасности важной личной и бизнес-информации становятся все более критическими и сложными. Проблемы конфиденциальности и безопасности данных требуют особенно пристального внимания к ИИ, поскольку доступ к данным необходим для того, чтобы системы ИИ могли делать точные и обоснованные прогнозы и решения о людях.

🎥 Нажмите здесь для просмотра видео: безопасность в ИИ

  • Как отрасль, мы добились значительного прогресса в области конфиденциальности и безопасности, что было во многом обусловлено такими регламентами, как GDPR (Общий регламент по защите данных).
  • Тем не менее, с системами ИИ мы должны признать напряжение между необходимостью большего количества персональных данных для создания более персонализированных и эффективных систем и конфиденциальностью.
  • Точно так же, как с появлением подключенных компьютеров с интернетом, мы также наблюдаем значительное увеличение числа проблем с безопасностью, связанных с ИИ.
  • В то же время мы видим, что ИИ используется для повышения безопасности. Например, большинство современных антивирусных сканеров сегодня управляются ИИ-эвристиками.
  • Нам нужно убедиться, что наши процессы науки о данных гармонично сочетаются с последними практиками конфиденциальности и безопасности.

Прозрачность

Системы ИИ должны быть понятными. Ключевой частью прозрачности является объяснение поведения систем ИИ и их компонентов. Улучшение понимания систем ИИ требует от заинтересованных сторон осознания того, как и почему они функционируют, чтобы они могли выявлять потенциальные проблемы с производительностью, проблемы безопасности и конфиденциальности, предвзятости, исключительные практики или непредвиденные результаты. Мы также считаем, что те, кто использует системы ИИ, должны быть честными и откровенными о том, когда, почему и как они выбирают их развертывание, а также о ограничениях систем, которые они используют. Например, если банк использует систему ИИ для поддержки своих потребительских кредитных решений, важно исследовать результаты и понять, какие данные влияют на рекомендации системы. Государства начинают регулировать ИИ в различных отраслях, поэтому ученые данных и организации должны объяснять, соответствует ли система ИИ регуляторным требованиям, особенно когда возникает нежелательный результат.

🎥 Нажмите здесь для просмотра видео: прозрачность в ИИ

  • Поскольку системы ИИ настолько сложны, трудно понять, как они работают и интерпретировать результаты.
  • Этот недостаток понимания влияет на то, как эти системы управляются, операционализируются и документируются.
  • Этот недостаток понимания, что более важно, влияет на решения, принимаемые с использованием результатов, которые эти системы производят.

Ответственность

Люди, которые проектируют и внедряют системы ИИ, должны нести ответственность за то, как их системы функционируют. Необходимость ответственности особенно важна для чувствительных технологий, таких как распознавание лиц. В последнее время наблюдается растущий спрос на технологии распознавания лиц, особенно со стороны правоохранительных органов, которые видят потенциал этой технологии в таких применениях, как поиск пропавших детей. Однако эти технологии могут потенциально использоваться правительством для угрозы основным свободам граждан, например, позволяя непрерывное наблюдение за конкретными лицами. Следовательно, ученые данных и организации должны быть ответственны за то, как их система ИИ влияет на отдельных людей или общество.

Ведущий исследователь ИИ предупреждает о массовом наблюдении через распознавание лиц

🎥 Нажмите на изображение выше для просмотра видео: Предупреждения о массовом наблюдении через распознавание лиц

В конечном итоге одним из самых больших вопросов для нашего поколения, как для первого поколения, которое внедряет ИИ в общество, является то, как обеспечить, чтобы компьютеры оставались подотчетными людям и как гарантировать, что люди, проектирующие компьютеры, остаются подотчетными всем остальным.

Оценка воздействия

Перед обучением модели машинного обучения важно провести оценку воздействия, чтобы понять цель системы ИИ; каково предполагаемое использование; где она будет развернута; и кто будет взаимодействовать с системой. Это полезно для рецензентов или тестировщиков, оценивающих систему, чтобы знать, какие факторы учитывать при выявлении потенциальных рисков и ожидаемых последствий.

Следующие области являются фокусом при проведении оценки воздействия:

  • Негативное воздействие на отдельных людей. Осознание любых ограничений или требований, неподдерживаемого использования или любых известных ограничений, препятствующих работе системы, имеет жизненно важное значение для обеспечения того, чтобы система не использовалась таким образом, который мог бы нанести вред отдельным лицам.
  • Требования к данным. Понимание того, как и где система будет использовать данные, позволяет рецензентам изучить любые требования к данным, о которых следует помнить (например, регламенты GDPR или HIPAA). Кроме того, необходимо оценить, является ли источник или количество данных достаточным для обучения.
  • Сводка воздействия. Соберите список потенциальных вредов, которые могут возникнуть в результате использования системы. На протяжении жизненного цикла машинного обучения проверяйте, были ли выявленные проблемы смягчены или устранены.
  • Применимые цели для каждого из шести основных принципов. Оцените, достигаются ли цели каждого из принципов и есть ли какие-либо пробелы.

Отладка с ответственным ИИ

Подобно отладке программного приложения, отладка системы ИИ является необходимым процессом выявления и решения проблем в системе. Существует множество факторов, которые могут повлиять на то, что модель не работает так, как ожидалось или ответственно. Большинство традиционных метрик производительности модели являются количественными агрегатами производительности модели, что недостаточно для анализа того, как модель нарушает принципы ответственного ИИ. Более того, модель машинного обучения является черным ящиком, что затрудняет понимание того, что влияет на ее результат, или предоставление объяснений, когда она делает ошибку. Позже в этом курсе мы научимся использовать панель инструментов ответственного ИИ для помощи в отладке систем ИИ. Панель инструментов предоставляет целостный инструмент для ученых данных и разработчиков ИИ для выполнения:

  • Анализ ошибок. Для выявления распределения ошибок модели, которые могут повлиять на справедливость или надежность системы.
  • Обзор модели. Для выявления различий в производительности модели среди когорт данных.
  • Анализ данных. Для понимания распределения данных и выявления любых потенциальных предвзятостей в данных, которые могут привести к проблемам со справедливостью, инклюзивностью и надежностью.
  • Интерпретируемость модели. Для понимания того, что влияет на предсказания модели. Это помогает объяснить поведение модели, что важно для прозрачности и ответственности.

🚀 Задание

Чтобы предотвратить возникновение вреда с самого начала, мы должны:

  • иметь разнообразие фонов и перспектив среди людей, работающих над системами
  • инвестировать в наборы данных, которые отражают разнообразие нашего общества
  • разрабатывать лучшие методы на протяжении жизненного цикла машинного обучения для выявления и исправления проблем ответственного ИИ, когда они возникают

Подумайте о реальных сценариях, где недоверие к модели очевидно в процессе создания и использования модели. Что еще мы должны учитывать?

Викторина после лекции

Обзор и самостоятельное изучение

В этом уроке вы узнали основы понятий справедливости и несправедливости в машинном обучении.

Посмотрите этот семинар, чтобы углубиться в темы:

  • В поисках ответственного ИИ: внедрение принципов на практике от Бесмиры Нуши, Мехрнуш Самеки и Амита Шармы

Инструменты ответственного ИИ: открытая структура для создания ответственного ИИ

🎥 Нажмите на изображение выше для просмотра видео: RAI Toolbox: Открытая структура для создания ответственного ИИ от Бесмиры Нуши, Мехрнуш Самеки и Амита Шармы

Также прочтите:

RAI Toolbox:

Прочтите о инструментах Azure Machine Learning для обеспечения справедливости:

Задание

Изучите RAI Toolbox

Отказ от ответственности:
Этот документ был переведен с использованием услуг машинного перевода на основе ИИ. Хотя мы стремимся к точности, пожалуйста, имейте в виду, что автоматические переводы могут содержать ошибки или неточности. Оригинальный документ на его родном языке следует считать авторитетным источником. Для критически важной информации рекомендуется профессиональный человеческий перевод. Мы не несем ответственности за любые недоразумения или неправильные толкования, возникающие в результате использования этого перевода.