You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/pl/1-Introduction/02-ethics
leestott cfd74ebbf1
🌐 Update translations via Co-op Translator
4 weeks ago
..
README.md 🌐 Update translations via Co-op Translator 4 weeks ago
assignment.md 🌐 Update translations via Co-op Translator 4 weeks ago

README.md

Wprowadzenie do etyki danych

 Sketchnote autorstwa (@sketchthedocs)
Etyka w nauce o danych - Sketchnote autorstwa @nitya

Wszyscy jesteśmy obywatelami danych żyjącymi w świecie zdominowanym przez dane.

Trendy rynkowe wskazują, że do 2022 roku 1 na 3 duże organizacje będzie kupować i sprzedawać swoje dane za pośrednictwem internetowych rynków i giełd. Jako deweloperzy aplikacji, będziemy mieli łatwiejszy i tańszy dostęp do integracji wniosków opartych na danych oraz automatyzacji napędzanej algorytmami w codziennych doświadczeniach użytkowników. Jednak wraz z coraz większym rozpowszechnieniem AI, musimy również zrozumieć potencjalne szkody wynikające z uzbrojenia takich algorytmów na dużą skalę.

Trendy wskazują również, że do 2025 roku stworzymy i skonsumujemy ponad 180 zettabajtów danych. Jako naukowcy danych, zyskamy bezprecedensowy dostęp do danych osobowych. Oznacza to, że możemy budować profile behawioralne użytkowników i wpływać na podejmowanie decyzji w sposób, który tworzy iluzję wolnego wyboru, jednocześnie potencjalnie kierując użytkowników w stronę preferowanych przez nas wyników. To również rodzi szersze pytania dotyczące prywatności danych i ochrony użytkowników.

Etyka danych to teraz niezbędne zabezpieczenia w nauce o danych i inżynierii, które pomagają minimalizować potencjalne szkody i niezamierzone konsekwencje naszych działań opartych na danych. Cykl Hype Gartnera dla AI identyfikuje istotne trendy w zakresie etyki cyfrowej, odpowiedzialnej AI i zarządzania AI jako kluczowe czynniki napędzające większe megatrendy wokół demokratyzacji i uprzemysłowienia AI.

Cykl Hype Gartnera dla AI - 2020

W tej lekcji zgłębimy fascynujący obszar etyki danych - od podstawowych pojęć i wyzwań, przez studia przypadków, aż po zastosowane koncepcje AI, takie jak zarządzanie, które pomagają ustanowić kulturę etyki w zespołach i organizacjach pracujących z danymi i AI.

Quiz przed wykładem 🎯

Podstawowe definicje

Zacznijmy od zrozumienia podstawowej terminologii.

Słowo "etyka" pochodzi od greckiego słowa "ethikos" (i jego rdzenia "ethos"), oznaczającego charakter lub moralną naturę.

Etyka dotyczy wspólnych wartości i zasad moralnych, które regulują nasze zachowanie w społeczeństwie. Etyka nie opiera się na prawach, ale na powszechnie akceptowanych normach tego, co jest "dobre a złe". Jednak rozważania etyczne mogą wpływać na inicjatywy w zakresie ładu korporacyjnego i regulacje rządowe, które tworzą większe zachęty do przestrzegania zasad.

Etyka danych to nowa gałąź etyki, która "bada i ocenia problemy moralne związane z danymi, algorytmami i odpowiadającymi im praktykami". Tutaj "dane" koncentrują się na działaniach związanych z generowaniem, rejestrowaniem, kuracją, przetwarzaniem, rozpowszechnianiem, udostępnianiem i użytkowaniem, "algorytmy" skupiają się na AI, agentach, uczeniu maszynowym i robotach, a "praktyki" dotyczą takich tematów jak odpowiedzialna innowacja, programowanie, hacking i kodeksy etyczne.

Etyka stosowana to praktyczne zastosowanie rozważań moralnych. Jest to proces aktywnego badania kwestii etycznych w kontekście działań, produktów i procesów w rzeczywistym świecie oraz podejmowania działań korygujących, aby upewnić się, że pozostają one zgodne z określonymi wartościami etycznymi.

Kultura etyczna dotyczy operacjonalizacji etyki stosowanej, aby upewnić się, że nasze zasady i praktyki etyczne są przyjmowane w sposób spójny i skalowalny w całej organizacji. Udane kultury etyczne definiują zasady etyczne na poziomie organizacyjnym, zapewniają znaczące zachęty do przestrzegania zasad i wzmacniają normy etyczne, zachęcając i promując pożądane zachowania na każdym poziomie organizacji.

Koncepcje etyczne

W tej sekcji omówimy koncepcje takie jak wspólne wartości (zasady) i wyzwania etyczne (problemy) w etyce danych - oraz przeanalizujemy studia przypadków, które pomogą zrozumieć te koncepcje w kontekstach rzeczywistych.

1. Zasady etyczne

Każda strategia etyki danych zaczyna się od zdefiniowania zasad etycznych - "wspólnych wartości", które opisują akceptowalne zachowania i kierują działaniami zgodnymi z przepisami w naszych projektach związanych z danymi i AI. Możesz je zdefiniować na poziomie indywidualnym lub zespołowym. Jednak większość dużych organizacji określa je w ramach misji lub struktury etycznego AI, która jest definiowana na poziomie korporacyjnym i konsekwentnie egzekwowana we wszystkich zespołach.

Przykład: Misja Odpowiedzialnego AI Microsoftu brzmi: "Jesteśmy zaangażowani w rozwój AI napędzanej zasadami etycznymi, które stawiają ludzi na pierwszym miejscu" - identyfikując 6 zasad etycznych w poniższym frameworku:

Odpowiedzialne AI w Microsoft

Przyjrzyjmy się krótko tym zasadom. Przejrzystość i odpowiedzialność są podstawowymi wartościami, na których opierają się inne zasady - zacznijmy więc od nich:

  • Odpowiedzialność sprawia, że praktycy są odpowiedzialni za swoje działania związane z danymi i AI oraz za zgodność z tymi zasadami etycznymi.
  • Przejrzystość zapewnia, że działania związane z danymi i AI są zrozumiałe (interpretowalne) dla użytkowników, wyjaśniając, co i dlaczego stoi za decyzjami.
  • Sprawiedliwość - koncentruje się na zapewnieniu, że AI traktuje wszystkich ludzi sprawiedliwie, eliminując systemowe lub ukryte uprzedzenia w danych i systemach.
  • Niezawodność i bezpieczeństwo - zapewnia, że AI działa spójnie z określonymi wartościami, minimalizując potencjalne szkody lub niezamierzone konsekwencje.
  • Prywatność i bezpieczeństwo - dotyczy zrozumienia pochodzenia danych i zapewnienia prywatności danych oraz związanych z tym ochron użytkownikom.
  • Inkluzywność - dotyczy projektowania rozwiązań AI z zamiarem dostosowania ich do szerokiego zakresu ludzkich potrzeb i możliwości.

🚨 Zastanów się, jaka mogłaby być twoja misja etyki danych. Zbadaj ramy etycznego AI innych organizacji - oto przykłady od IBM, Google i Facebook. Jakie wspólne wartości mają? Jak te zasady odnoszą się do produktów AI lub branży, w której działają?

2. Wyzwania etyczne

Gdy mamy zdefiniowane zasady etyczne, kolejnym krokiem jest ocena naszych działań związanych z danymi i AI, aby sprawdzić, czy są zgodne z tymi wspólnymi wartościami. Pomyśl o swoich działaniach w dwóch kategoriach: zbieranie danych i projektowanie algorytmów.

W przypadku zbierania danych działania prawdopodobnie będą dotyczyć danych osobowych lub danych umożliwiających identyfikację osób (PII) dla możliwych do zidentyfikowania żyjących osób. Obejmuje to różnorodne elementy danych nieosobowych, które łącznie identyfikują osobę. Wyzwania etyczne mogą dotyczyć prywatności danych, własności danych i powiązanych tematów, takich jak świadoma zgoda i prawa własności intelektualnej użytkowników.

W przypadku projektowania algorytmów działania będą obejmować zbieranie i kurację zbiorów danych, a następnie ich wykorzystanie do trenowania i wdrażania modeli danych, które przewidują wyniki lub automatyzują decyzje w rzeczywistych kontekstach. Wyzwania etyczne mogą wynikać z uprzedzeń w zbiorach danych, problemów z jakością danych, niesprawiedliwości i fałszywego przedstawienia w algorytmach - w tym niektórych problemów o charakterze systemowym.

W obu przypadkach wyzwania etyczne wskazują obszary, w których nasze działania mogą być sprzeczne z naszymi wspólnymi wartościami. Aby wykryć, złagodzić, zminimalizować lub wyeliminować te obawy, musimy zadawać moralne pytania "tak/nie" dotyczące naszych działań, a następnie podejmować odpowiednie działania korygujące. Przyjrzyjmy się niektórym wyzwaniom etycznym i moralnym pytaniom, które one rodzą:

2.1 Własność danych

Zbieranie danych często obejmuje dane osobowe, które mogą identyfikować podmioty danych. Własność danych dotyczy kontroli i praw użytkowników związanych z tworzeniem, przetwarzaniem i rozpowszechnianiem danych.

Moralne pytania, które musimy zadać:

  • Kto jest właścicielem danych? (użytkownik czy organizacja)
  • Jakie prawa mają podmioty danych? (np. dostęp, usunięcie, przenoszenie)
  • Jakie prawa mają organizacje? (np. poprawianie złośliwych recenzji użytkowników)

2.2 Świadoma zgoda

Świadoma zgoda definiuje akt zgody użytkowników na działanie (np. zbieranie danych) z pełnym zrozumieniem istotnych faktów, w tym celu, potencjalnych ryzyk i alternatyw.

Pytania do rozważenia:

  • Czy użytkownik (podmiot danych) wyraził zgodę na zbieranie i wykorzystanie danych?
  • Czy użytkownik rozumiał cel, dla którego dane zostały zebrane?
  • Czy użytkownik rozumiał potencjalne ryzyka wynikające z jego udziału?

2.3 Własność intelektualna

Własność intelektualna odnosi się do niematerialnych wytworów wynikających z ludzkiej inicjatywy, które mogą mieć wartość ekonomiczną dla osób lub firm.

Pytania do rozważenia:

  • Czy zebrane dane miały wartość ekonomiczną dla użytkownika lub firmy?
  • Czy użytkownik ma tutaj własność intelektualną?
  • Czy organizacja ma tutaj własność intelektualną?
  • Jeśli te prawa istnieją, jak je chronimy?

2.4 Prywatność danych

Prywatność danych lub prywatność informacji odnosi się do zachowania prywatności użytkownika i ochrony jego tożsamości w odniesieniu do danych umożliwiających identyfikację.

Pytania do rozważenia:

  • Czy dane użytkowników (osobowe) są zabezpieczone przed atakami i wyciekami?
  • Czy dane użytkowników są dostępne tylko dla autoryzowanych użytkowników i kontekstów?
  • Czy anonimowość użytkowników jest zachowana, gdy dane są udostępniane lub rozpowszechniane?
  • Czy użytkownik może zostać zidentyfikowany z anonimowych zbiorów danych?

2.5 Prawo do bycia zapomnianym

Prawo do bycia zapomnianym lub Prawo do usunięcia zapewnia użytkownikom dodatkową ochronę danych osobowych. Daje użytkownikom prawo do żądania usunięcia lub wycofania danych osobowych z wyszukiwarek internetowych i innych miejsc, w określonych okolicznościach - umożliwiając im nowy start online bez obciążenia przeszłymi działaniami.

Pytania do rozważenia:

  • Czy system pozwala podmiotom danych na żądanie usunięcia danych?
  • Czy wycofanie zgody użytkownika powinno automatycznie uruchamiać usunięcie danych?
  • Czy dane zostały zebrane bez zgody lub w sposób niezgodny z prawem?
  • Czy jesteśmy zgodni z regulacjami rządowymi dotyczącymi prywatności danych?

2.6 Uprzedzenia w zbiorach danych

Uprzedzenia w zbiorach danych lub uprzedzenia w zbieraniu danych dotyczą wyboru niereprezentatywnego podzbioru danych do rozwoju algorytmu, co może prowadzić do niesprawiedliwych wyników dla różnych grup. Rodzaje uprzedzeń obejmują uprzedzenia selekcyjne, uprzedzenia ochotników i uprzedzenia narzędziowe.

Pytania do rozważenia:

  • Czy zrekrutowaliśmy reprezentatywny zestaw podmiotów danych?
  • Czy przetestowaliśmy nasz zebrany lub kuratorowany zbiór danych pod kątem różnych uprzedzeń?
  • Czy możemy złagodzić lub usunąć wykryte uprzedzenia?

2.7 Jakość danych

Jakość danych odnosi się do ważności kuratorowanego zbioru danych używanego do rozwoju naszych algorytmów, sprawdzając, czy cechy i rekordy spełniają wymagania dotyczące poziomu dokładności i spójności potrzebnego do naszego celu AI.

Pytania do rozważenia:

  • Czy uchwyciliśmy ważne cechy dla naszego przypadku użycia?
  • Czy Algorithmiczna Sprawiedliwość sprawdza, czy projekt algorytmu systematycznie dyskryminuje określone podgrupy osób, co prowadzi do potencjalnych szkód w zakresie alokacji (gdzie zasoby są odmawiane lub wstrzymywane dla tej grupy) oraz jakości usług (gdzie AI jest mniej dokładne dla niektórych podgrup w porównaniu do innych).

Pytania do rozważenia:

  • Czy oceniliśmy dokładność modelu dla różnych podgrup i warunków?
  • Czy przeanalizowaliśmy system pod kątem potencjalnych szkód (np. stereotypizacji)?
  • Czy możemy zmodyfikować dane lub ponownie wytrenować modele, aby zminimalizować zidentyfikowane szkody?

Odkryj zasoby, takie jak listy kontrolne AI Fairness, aby dowiedzieć się więcej.

2.9 Wprowadzanie w błąd

Wprowadzanie w błąd w danych dotyczy pytania, czy komunikujemy wnioski z uczciwie zgromadzonych danych w sposób zwodniczy, aby wspierać pożądany przekaz.

Pytania do rozważenia:

  • Czy raportujemy niekompletne lub niedokładne dane?
  • Czy wizualizujemy dane w sposób prowadzący do mylących wniosków?
  • Czy stosujemy wybiórcze techniki statystyczne, aby manipulować wynikami?
  • Czy istnieją alternatywne wyjaśnienia, które mogą prowadzić do innych wniosków?

2.10 Iluzja wolnego wyboru

Iluzja wolnego wyboru pojawia się, gdy "architektury wyboru" systemu wykorzystują algorytmy decyzyjne, aby skłonić ludzi do podjęcia preferowanego wyniku, jednocześnie dając im pozory opcji i kontroli. Te ciemne wzorce mogą powodować szkody społeczne i ekonomiczne dla użytkowników. Ponieważ decyzje użytkowników wpływają na profile behawioralne, te działania mogą potencjalnie napędzać przyszłe wybory, wzmacniając lub przedłużając skutki tych szkód.

Pytania do rozważenia:

  • Czy użytkownik rozumiał konsekwencje podjęcia tej decyzji?
  • Czy użytkownik był świadomy (alternatywnych) opcji oraz ich zalet i wad?
  • Czy użytkownik może cofnąć automatyczną lub wymuszoną decyzję później?

3. Studia przypadków

Aby umieścić te wyzwania etyczne w kontekście rzeczywistym, warto przyjrzeć się studiom przypadków, które podkreślają potencjalne szkody i konsekwencje dla jednostek i społeczeństwa, gdy naruszenia etyki są ignorowane.

Oto kilka przykładów:

Wyzwanie etyczne Studium przypadku
Świadoma zgoda 1972 - Badanie kiły w Tuskegee - Afroamerykańscy mężczyźni uczestniczący w badaniu zostali zwiedzeni obietnicą darmowej opieki medycznej, podczas gdy badacze nie poinformowali ich o diagnozie ani o dostępności leczenia. Wielu uczestników zmarło, a ich partnerzy lub dzieci zostali dotknięci; badanie trwało 40 lat.
Prywatność danych 2007 - Nagroda Netflixa za dane udostępniła badaczom 10 milionów zanonimizowanych ocen filmów od 50 tysięcy klientów, aby poprawić algorytmy rekomendacji. Jednak badacze byli w stanie powiązać zanonimizowane dane z danymi osobowymi w zewnętrznych zbiorach danych (np. komentarze na IMDb), skutecznie "deanonimizując" niektórych subskrybentów Netflixa.
Stronniczość w zbieraniu danych 2013 - Miasto Boston opracowało Street Bump, aplikację pozwalającą obywatelom zgłaszać dziury w drogach, co miało dostarczyć lepszych danych o drogach. Jednak osoby z niższych grup dochodowych miały mniejszy dostęp do samochodów i telefonów, co sprawiło, że ich problemy drogowe były niewidoczne w tej aplikacji. Twórcy współpracowali z akademikami, aby rozwiązać problemy z równym dostępem i cyfrowymi podziałami w celu zapewnienia sprawiedliwości.
Sprawiedliwość algorytmiczna 2018 - Badanie MIT Gender Shades oceniło dokładność produktów AI klasyfikujących płeć, ujawniając luki w dokładności dla kobiet i osób o innym kolorze skóry. Karta Apple z 2019 roku wydawała się oferować mniejsze limity kredytowe kobietom niż mężczyznom. Oba przypadki ilustrują problemy z uprzedzeniami algorytmicznymi prowadzącymi do szkód społeczno-ekonomicznych.
Wprowadzanie w błąd w danych 2020 - Departament Zdrowia Publicznego w Georgii opublikował wykresy COVID-19, które wydawały się wprowadzać obywateli w błąd co do trendów w potwierdzonych przypadkach poprzez niechronologiczne uporządkowanie osi x. To ilustruje wprowadzanie w błąd za pomocą trików wizualizacyjnych.
Iluzja wolnego wyboru 2020 - Aplikacja edukacyjna ABCmouse zapłaciła 10 milionów dolarów w ramach ugody z FTC, gdzie rodzice byli zmuszani do opłacania subskrypcji, których nie mogli anulować. To ilustruje ciemne wzorce w architekturach wyboru, gdzie użytkownicy byli skłaniani do potencjalnie szkodliwych decyzji.
Prywatność danych i prawa użytkowników 2021 - Wyciek danych z Facebooka ujawnił dane 530 milionów użytkowników, co skutkowało ugodą z FTC na kwotę 5 miliardów dolarów. Jednak Facebook odmówił powiadomienia użytkowników o wycieku, naruszając ich prawa dotyczące przejrzystości danych i dostępu.

Chcesz poznać więcej studiów przypadków? Sprawdź te zasoby:

🚨 Pomyśl o studiach przypadków, które widziałeś - czy doświadczyłeś lub byłeś dotknięty podobnym wyzwaniem etycznym w swoim życiu? Czy możesz wymienić przynajmniej jedno inne studium przypadku ilustrujące jedno z omawianych wyzwań etycznych?

Etyka stosowana

Omówiliśmy koncepcje etyczne, wyzwania i studia przypadków w kontekstach rzeczywistych. Ale jak zacząć stosować zasady i praktyki etyczne w naszych projektach? I jak operacjonalizować te praktyki dla lepszego zarządzania? Przyjrzyjmy się kilku rzeczywistym rozwiązaniom:

1. Kodeksy zawodowe

Kodeksy zawodowe oferują jedną z opcji dla organizacji, aby "zachęcać" członków do wspierania ich zasad etycznych i misji. Kodeksy są moralnymi wytycznymi dotyczącymi zachowań zawodowych, pomagającymi pracownikom lub członkom podejmować decyzje zgodne z zasadami organizacji. Są one skuteczne tylko w takim stopniu, w jakim członkowie dobrowolnie ich przestrzegają; jednak wiele organizacji oferuje dodatkowe nagrody i kary, aby motywować członków do przestrzegania kodeksu.

Przykłady obejmują:

🚨 Czy należysz do organizacji inżynierskiej lub związanej z nauką o danych? Sprawdź ich stronę, aby zobaczyć, czy definiują kodeks etyki zawodowej. Co mówi on o ich zasadach etycznych? Jak "zachęcają" członków do przestrzegania kodeksu?

2. Listy kontrolne etyki

Podczas gdy kodeksy zawodowe definiują wymagane zachowania etyczne praktyków, mają znane ograniczenia w egzekwowaniu, szczególnie w dużych projektach. Zamiast tego wielu ekspertów ds. nauki o danych zaleca stosowanie list kontrolnych, które mogą połączyć zasady z praktykami w bardziej deterministyczny i wykonalny sposób.

Listy kontrolne przekształcają pytania w zadania "tak/nie", które można operacjonalizować, umożliwiając ich śledzenie jako część standardowych procesów wydawania produktów.

Przykłady obejmują:

3. Regulacje etyczne

Etyka dotyczy definiowania wspólnych wartości i dobrowolnego postępowania zgodnie z nimi. Zgodność dotyczy przestrzegania prawa, jeśli i gdzie jest ono zdefiniowane. Zarządzanie obejmuje szeroko wszystkie sposoby, w jakie organizacje działają, aby egzekwować zasady etyczne i przestrzegać ustanowionych przepisów.

Obecnie zarządzanie przyjmuje dwie formy w organizacjach. Po pierwsze, chodzi o definiowanie zasad etycznego AI i ustanawianie praktyk, które umożliwiają ich wdrożenie we wszystkich projektach związanych z AI w organizacji. Po drugie, chodzi o przestrzeganie wszystkich rządowych regulacji dotyczących ochrony danych w regionach, w których organizacja działa.

Przykłady regulacji dotyczących ochrony danych i prywatności:

🚨 Ogólne rozporządzenie o ochronie danych (GDPR) zdefiniowane przez Unię Europejską pozostaje jednym z najbardziej wpływowych regulacji dotyczących prywatności danych. Czy wiesz, że definiuje również 8 praw użytkowników, aby chronić cyfrową prywatność i dane osobowe obywateli? Dowiedz się, czym są te prawa i dlaczego są ważne.

4. Kultura etyki

Należy zauważyć, że istnieje niematerialna luka między zgodnością (robieniem wystarczająco dużo, aby spełnić "literę prawa") a rozwiązywaniem systemowych problemów (takich jak skostnienie, asymetria informacji i niesprawiedliwość dystrybucyjna), które mogą przyspieszyć wykorzystanie AI w szkodliwy sposób.

To drugie wymaga współpracy w definiowaniu kultur etycznych, które budują emocjonalne więzi i spójne wspólne wartości w organizacjach w branży. Wymaga to bardziej sformalizowanych kultur etyki danych w organizacjach - umożliwiając każdemu pociągnięcie za sznur Andon (aby zgłosić obawy etyczne na wczesnym etapie procesu) i uczynienie ocen etycznych (np. w rekrutacji) kluczowym kryterium formowania zespołów w projektach AI.


Quiz po wykładzie 🎯

Przegląd i samodzielna nauka

Kursy i książki pomagają zrozumieć podstawowe koncepcje etyczne i wyzwania, podczas gdy studia przypadków i narzędzia pomagają w stosowaniu praktyk etycznych w rzeczywistych kontekstach. Oto kilka zasobów na początek:

Zadanie

Napisz studium przypadku dotyczące etyki danych

Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia wykonanego przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.