|
|
4 months ago | |
|---|---|---|
| .. | ||
| README.md | 4 months ago | |
| assignment.md | 5 months ago | |
README.md
Wprowadzenie do etyki danych
![]() |
|---|
| Etyka danych - Sketchnote autorstwa @nitya |
Wszyscy jesteśmy obywatelami danych, żyjącymi w świecie zdominowanym przez dane.
Trendy rynkowe wskazują, że do 2022 roku 1 na 3 duże organizacje będzie kupować i sprzedawać swoje dane za pośrednictwem internetowych rynków i giełd. Jako twórcy aplikacji, będziemy mieli łatwiejszy i tańszy dostęp do integracji wniosków opartych na danych oraz automatyzacji sterowanej algorytmami w codziennych doświadczeniach użytkowników. Jednak wraz z coraz większym rozpowszechnieniem AI, musimy również zrozumieć potencjalne szkody wynikające z uzbrojenia takich algorytmów na dużą skalę.
Prognozy wskazują, że do 2025 roku będziemy generować i konsumować ponad 180 zettabajtów danych. Dla naukowców zajmujących się danymi ten wybuch informacji oznacza bezprecedensowy dostęp do danych osobowych i behawioralnych. Dzięki temu możliwe jest tworzenie szczegółowych profili użytkowników i subtelne wpływanie na podejmowanie decyzji — często w sposób, który tworzy iluzję wolnego wyboru. Choć można to wykorzystać do nakłaniania użytkowników do preferowanych wyników, rodzi to również istotne pytania dotyczące prywatności danych, autonomii i granic etycznych wpływu algorytmicznego.
Etyka danych staje się teraz niezbędnymi barierami ochronnymi dla nauki o danych i inżynierii, pomagając minimalizować potencjalne szkody i niezamierzone konsekwencje wynikające z działań opartych na danych. Cykl Hype Gartnera dla AI identyfikuje istotne trendy w cyfrowej etyce, odpowiedzialnej AI i zarządzaniu AI jako kluczowe czynniki napędzające większe megatrendy wokół demokratyzacji i industrializacji AI.
W tej lekcji zgłębimy fascynujący obszar etyki danych — od podstawowych pojęć i wyzwań, przez studia przypadków, aż po zastosowane koncepcje AI, takie jak zarządzanie, które pomagają ustanowić kulturę etyki w zespołach i organizacjach pracujących z danymi i AI.
Quiz przed wykładem 🎯
Podstawowe definicje
Zacznijmy od zrozumienia podstawowej terminologii.
Słowo "etyka" pochodzi od greckiego słowa "ethikos" (i jego korzenia "ethos"), które oznacza charakter lub moralną naturę.
Etyka dotyczy wspólnych wartości i zasad moralnych, które regulują nasze zachowanie w społeczeństwie. Etyka opiera się nie na prawach, ale na powszechnie akceptowanych normach tego, co jest "dobre vs. złe". Jednak rozważania etyczne mogą wpływać na inicjatywy w zakresie ładu korporacyjnego oraz regulacje rządowe, które tworzą większe zachęty do przestrzegania zasad.
Etyka danych to nowa gałąź etyki, która "bada i ocenia problemy moralne związane z danymi, algorytmami i odpowiadającymi im praktykami". Tutaj "dane" koncentrują się na działaniach związanych z generowaniem, rejestrowaniem, kuracją, przetwarzaniem, rozpowszechnianiem, udostępnianiem i użytkowaniem, "algorytmy" skupiają się na AI, agentach, uczeniu maszynowym i robotach, a "praktyki" dotyczą takich tematów jak odpowiedzialna innowacja, programowanie, hacking i kodeksy etyczne.
Etyka stosowana to praktyczne zastosowanie rozważań moralnych. Jest to proces aktywnego badania kwestii etycznych w kontekście działań, produktów i procesów w rzeczywistym świecie oraz podejmowania działań naprawczych, aby zapewnić, że pozostają one zgodne z określonymi wartościami etycznymi.
Kultura etyczna dotyczy operacjonalizacji etyki stosowanej, aby upewnić się, że nasze zasady i praktyki etyczne są przyjmowane w sposób spójny i skalowalny w całej organizacji. Udane kultury etyczne definiują ogólnofirmowe zasady etyczne, zapewniają znaczące zachęty do przestrzegania zasad i wzmacniają normy etyczne, zachęcając i amplifikując pożądane zachowania na każdym poziomie organizacji.
Koncepcje etyczne
W tej sekcji omówimy takie pojęcia jak wspólne wartości (zasady) i wyzwania etyczne (problemy) w etyce danych — oraz przeanalizujemy studia przypadków, które pomogą zrozumieć te koncepcje w kontekście rzeczywistego świata.
1. Zasady etyczne
Każda strategia etyki danych zaczyna się od zdefiniowania zasad etycznych — "wspólnych wartości", które opisują akceptowalne zachowania i kierują zgodnymi działaniami w naszych projektach związanych z danymi i AI. Można je definiować na poziomie indywidualnym lub zespołowym. Jednak większość dużych organizacji określa je w misji etycznej AI lub ramach, które są definiowane na poziomie korporacyjnym i konsekwentnie egzekwowane we wszystkich zespołach.
Przykład: Misja Odpowiedzialnej AI Microsoftu brzmi: "Jesteśmy zaangażowani w rozwój AI kierowany przez zasady etyczne, które stawiają ludzi na pierwszym miejscu" — identyfikując 6 zasad etycznych w poniższym frameworku:
Przyjrzyjmy się krótko tym zasadom. Przejrzystość i odpowiedzialność są wartościami podstawowymi, na których opierają się inne zasady — zacznijmy więc od nich:
- Odpowiedzialność sprawia, że praktycy są odpowiedzialni za swoje operacje związane z danymi i AI oraz za zgodność z tymi zasadami etycznymi.
- Przejrzystość zapewnia, że działania związane z danymi i AI są zrozumiałe (interpretowalne) dla użytkowników, wyjaśniając co i dlaczego stoi za decyzjami.
- Sprawiedliwość — koncentruje się na zapewnieniu, że AI traktuje wszystkich ludzi sprawiedliwie, rozwiązując wszelkie systemowe lub ukryte techniczno-społeczne uprzedzenia w danych i systemach.
- Niezawodność i bezpieczeństwo — zapewnia, że AI działa spójnie z określonymi wartościami, minimalizując potencjalne szkody lub niezamierzone konsekwencje.
- Prywatność i bezpieczeństwo — dotyczy zrozumienia pochodzenia danych i zapewnienia prywatności danych oraz związanych z tym ochron użytkownikom.
- Inkluzywność — dotyczy projektowania rozwiązań AI z zamysłem, dostosowując je do szerokiego zakresu ludzkich potrzeb i możliwości.
🚨 Zastanów się, jaka mogłaby być misja etyki danych w Twoim przypadku. Przeanalizuj ramy etyczne AI innych organizacji — oto przykłady od IBM, Google i Facebook. Jakie wspólne wartości mają? Jak te zasady odnoszą się do produktów AI lub branży, w której działają?
2. Wyzwania etyczne
Gdy mamy zdefiniowane zasady etyczne, kolejnym krokiem jest ocena naszych działań związanych z danymi i AI, aby sprawdzić, czy są zgodne z tymi wspólnymi wartościami. Zastanów się nad swoimi działaniami w dwóch kategoriach: zbieranie danych i projektowanie algorytmów.
W przypadku zbierania danych działania będą prawdopodobnie dotyczyć danych osobowych lub danych umożliwiających identyfikację (PII) żyjących osób. Obejmuje to różnorodne elementy danych nieosobowych, które łącznie identyfikują osobę. Wyzwania etyczne mogą dotyczyć prywatności danych, własności danych oraz powiązanych tematów, takich jak świadoma zgoda i prawa własności intelektualnej użytkowników.
W przypadku projektowania algorytmów działania będą obejmować zbieranie i kurację zbiorów danych, a następnie ich wykorzystanie do trenowania i wdrażania modeli danych, które przewidują wyniki lub automatyzują decyzje w rzeczywistych kontekstach. Wyzwania etyczne mogą wynikać z uprzedzeń w zbiorach danych, problemów z jakością danych, niesprawiedliwości i fałszywego przedstawienia w algorytmach — w tym niektórych problemów o charakterze systemowym.
W obu przypadkach wyzwania etyczne wskazują obszary, w których nasze działania mogą być sprzeczne z naszymi wspólnymi wartościami. Aby wykryć, złagodzić, zminimalizować lub wyeliminować te obawy, musimy zadawać moralne pytania "tak/nie" dotyczące naszych działań, a następnie podejmować odpowiednie działania naprawcze. Przyjrzyjmy się niektórym wyzwaniom etycznym i moralnym pytaniom, które się z nimi wiążą:
2.1 Własność danych
Zbieranie danych często obejmuje dane osobowe, które mogą identyfikować podmioty danych. Własność danych dotyczy kontroli i praw użytkowników związanych z tworzeniem, przetwarzaniem i rozpowszechnianiem danych.
Moralne pytania, które należy zadać:
- Kto jest właścicielem danych? (użytkownik czy organizacja)
- Jakie prawa mają podmioty danych? (np. dostęp, usunięcie, przenoszenie)
- Jakie prawa mają organizacje? (np. poprawa złośliwych recenzji użytkowników)
2.2 Świadoma zgoda
Świadoma zgoda definiuje akt zgody użytkowników na działanie (np. zbieranie danych) z pełnym zrozumieniem istotnych faktów, w tym celu, potencjalnych ryzyk i alternatyw.
Pytania do rozważenia:
- Czy użytkownik (podmiot danych) wyraził zgodę na przechwytywanie i wykorzystanie danych?
- Czy użytkownik rozumiał cel, dla którego dane zostały przechwycone?
- Czy użytkownik rozumiał potencjalne ryzyka wynikające z uczestnictwa?
2.3 Własność intelektualna
Własność intelektualna odnosi się do niematerialnych wytworów wynikających z ludzkiej inicjatywy, które mogą mieć wartość ekonomiczną dla osób lub firm.
Pytania do rozważenia:
- Czy zebrane dane miały wartość ekonomiczną dla użytkownika lub firmy?
- Czy użytkownik ma tutaj własność intelektualną?
- Czy organizacja ma tutaj własność intelektualną?
- Jeśli te prawa istnieją, jak je chronimy?
2.4 Prywatność danych
Prywatność danych lub prywatność informacji odnosi się do zachowania prywatności użytkownika i ochrony jego tożsamości w odniesieniu do danych umożliwiających identyfikację.
Pytania do rozważenia:
- Czy dane użytkowników (osobowe) są zabezpieczone przed atakami i wyciekami?
- Czy dane użytkowników są dostępne tylko dla autoryzowanych użytkowników i kontekstów?
- Czy anonimowość użytkowników jest zachowana podczas udostępniania lub rozpowszechniania danych?
- Czy użytkownik może zostać zdeidentyfikowany z anonimowych zbiorów danych?
2.5 Prawo do bycia zapomnianym
Prawo do bycia zapomnianym lub Prawo do usunięcia zapewnia użytkownikom dodatkową ochronę danych osobowych. W szczególności daje użytkownikom prawo do żądania usunięcia lub wymazania danych osobowych z wyszukiwarek internetowych i innych miejsc, w określonych okolicznościach — pozwalając im na nowy start online bez obciążenia przeszłymi działaniami.
Pytania do rozważenia:
- Czy system pozwala podmiotom danych na żądanie usunięcia?
- Czy wycofanie zgody użytkownika powinno automatycznie uruchamiać usunięcie danych?
- Czy dane zostały zebrane bez zgody lub w sposób niezgodny z prawem?
- Czy jesteśmy zgodni z regulacjami rządowymi dotyczącymi prywatności danych?
2.6 Uprzedzenia w zbiorach danych
Uprzedzenia w zbiorach danych lub uprzedzenia w zbieraniu danych dotyczą wyboru niereprezentatywnego podzbioru danych do rozwoju algorytmów, co może prowadzić do potencjalnej niesprawiedliwości w wynikach dla różnych grup. Rodzaje uprzedzeń obejmują uprzedzenia w wyborze lub próbkowaniu, uprzedzenia ochotników i uprzedzenia narzędzi.
Pytania do rozważenia:
- Czy zrekrutowaliśmy reprezentatywny zestaw podmiotów danych?
- Czy przetestowaliśmy nasz zebrany lub kuratowany zbiór danych pod kątem różnych uprzedzeń?
- Czy możemy złagodzić lub usunąć odkryte uprzedzenia?
2.7 Jakość danych
Jakość danych odnosi się do ważności kuratowanego zbioru danych używanego do rozwoju naszych algorytmów, sprawdzając, czy cechy i rekordy spełniają wymagania dotyczące poziomu dokładności i spójności potrzebnego dla naszego celu AI.
- Czy informacje są rejestrowane dokładnie i odzwierciedlają rzeczywistość?
2.8 Sprawiedliwość algorytmów
Sprawiedliwość algorytmów polega na sprawdzeniu, czy projekt algorytmu systematycznie dyskryminuje określone podgrupy osób, co prowadzi do potencjalnych szkód w alokacji (gdzie zasoby są odmawiane lub wstrzymywane dla tej grupy) oraz jakości usług (gdzie AI jest mniej dokładne dla niektórych podgrup niż dla innych).
Pytania do rozważenia:
- Czy oceniliśmy dokładność modelu dla różnych podgrup i warunków?
- Czy przeanalizowaliśmy system pod kątem potencjalnych szkód (np. stereotypizacji)?
- Czy możemy zmodyfikować dane lub ponownie wytrenować modele, aby zminimalizować zidentyfikowane szkody?
Zapoznaj się z zasobami, takimi jak listy kontrolne sprawiedliwości AI, aby dowiedzieć się więcej.
2.9 Fałszywe przedstawienie danych
Fałszywe przedstawienie danych dotyczy pytania, czy komunikujemy wnioski z uczciwie zgromadzonych danych w sposób wprowadzający w błąd, aby wspierać pożądany narracyjny przekaz.
Pytania do rozważenia:
- Czy raportujemy niekompletne lub niedokładne dane?
- Czy wizualizujemy dane w sposób prowadzący do mylących wniosków?
- Czy stosujemy selektywne techniki statystyczne, aby manipulować wynikami?
- Czy istnieją alternatywne wyjaśnienia, które mogą prowadzić do innych wniosków?
2.10 Wolny wybór
Iluzja wolnego wyboru pojawia się, gdy "architektury wyboru" systemu wykorzystują algorytmy decyzyjne, aby nakłonić ludzi do podjęcia preferowanego działania, jednocześnie dając im pozorną kontrolę i opcje. Te ciemne wzorce mogą powodować społeczne i ekonomiczne szkody dla użytkowników. Ponieważ decyzje użytkowników wpływają na profile zachowań, działania te mogą potencjalnie napędzać przyszłe wybory, które mogą wzmacniać lub rozszerzać wpływ tych szkód.
Pytania do rozważenia:
- Czy użytkownik rozumiał konsekwencje podjęcia tej decyzji?
- Czy użytkownik był świadomy (alternatywnych) opcji oraz ich zalet i wad?
- Czy użytkownik może później cofnąć automatyczną lub wpłyniętą decyzję?
3. Studia przypadków
Aby umieścić te wyzwania etyczne w kontekście rzeczywistym, warto przyjrzeć się studiom przypadków, które pokazują potencjalne szkody i konsekwencje dla jednostek i społeczeństwa, gdy naruszenia etyki są ignorowane.
Oto kilka przykładów:
| Wyzwanie etyczne | Studium przypadku |
|---|---|
| Świadoma zgoda | 1972 - Badanie kiły w Tuskegee - Afroamerykańscy mężczyźni, którzy uczestniczyli w badaniu, zostali obiecani darmową opieką medyczną, ale zostali oszukani przez badaczy, którzy nie poinformowali ich o diagnozie ani o dostępności leczenia. Wielu uczestników zmarło, a ich partnerzy lub dzieci zostały dotknięte; badanie trwało 40 lat. |
| Prywatność danych | 2007 - Nagroda Netflix za dane udostępniła badaczom 10M zanonimizowanych ocen filmów od 50K klientów, aby pomóc w ulepszaniu algorytmów rekomendacji. Jednak badacze byli w stanie powiązać zanonimizowane dane z danymi osobowymi w zewnętrznych zbiorach danych (np. komentarze IMDb), skutecznie "deanonimizując" niektórych subskrybentów Netflix. |
| Stronniczość w zbieraniu danych | 2013 - Miasto Boston opracowało Street Bump, aplikację pozwalającą obywatelom zgłaszać dziury w drogach, dostarczając miastu lepszych danych o drogach. Jednak osoby z niższych grup dochodowych miały mniejszy dostęp do samochodów i telefonów, co sprawiało, że ich problemy z drogami były niewidoczne w tej aplikacji. Twórcy współpracowali z akademikami, aby rozwiązać problemy równego dostępu i cyfrowych podziałów dla sprawiedliwości. |
| Sprawiedliwość algorytmów | 2018 - MIT Gender Shades Study oceniło dokładność produktów AI klasyfikujących płeć, ujawniając luki w dokładności dla kobiet i osób o ciemniejszym kolorze skóry. Apple Card z 2019 roku wydawała się oferować mniej kredytu kobietom niż mężczyznom. Oba przypadki ilustrują problemy z uprzedzeniami algorytmicznymi prowadzącymi do szkód społeczno-ekonomicznych. |
| Fałszywe przedstawienie danych | 2020 - Departament Zdrowia Publicznego Georgii opublikował wykresy COVID-19, które wydawały się wprowadzać obywateli w błąd co do trendów w potwierdzonych przypadkach poprzez niechronologiczne uporządkowanie osi x. To ilustruje fałszywe przedstawienie danych za pomocą trików wizualizacyjnych. |
| Iluzja wolnego wyboru | 2020 - Aplikacja edukacyjna ABCmouse zapłaciła 10M USD w ramach ugody z FTC, gdzie rodzice zostali zmuszeni do płacenia za subskrypcje, których nie mogli anulować. To ilustruje ciemne wzorce w architekturach wyboru, gdzie użytkownicy byli nakłaniani do potencjalnie szkodliwych decyzji. |
| Prywatność danych i prawa użytkowników | 2021 - Wycieki danych Facebooka ujawniły dane 530M użytkowników, co skutkowało ugodą w wysokości 5B USD z FTC. Jednak Facebook odmówił powiadomienia użytkowników o wycieku, naruszając prawa użytkowników dotyczące przejrzystości danych i dostępu. |
Chcesz poznać więcej studiów przypadków? Sprawdź te zasoby:
- Ethics Unwrapped - dylematy etyczne w różnych branżach.
- Kurs etyki w nauce o danych - omówione przełomowe studia przypadków.
- Gdzie popełniono błędy - lista kontrolna Deon z przykładami.
🚨 Pomyśl o studiach przypadków, które widziałeś - czy doświadczyłeś lub byłeś dotknięty podobnym wyzwaniem etycznym w swoim życiu? Czy możesz wymyślić co najmniej jedno inne studium przypadku, które ilustruje jedno z wyzwań etycznych omówionych w tej sekcji?
Zastosowanie etyki
Omówiliśmy koncepcje etyczne, wyzwania i studia przypadków w kontekstach rzeczywistych. Ale jak zacząć stosować zasady i praktyki etyczne w naszych projektach? I jak operacjonalizować te praktyki dla lepszego zarządzania? Przyjrzyjmy się kilku rozwiązaniom w rzeczywistym świecie:
1. Kodeksy zawodowe
Kodeksy zawodowe oferują jedną z opcji dla organizacji, aby "zachęcić" członków do wspierania ich zasad etycznych i misji. Kodeksy są wytycznymi moralnymi dla zachowań zawodowych, pomagając pracownikom lub członkom podejmować decyzje zgodne z zasadami organizacji. Są skuteczne tylko w przypadku dobrowolnego przestrzegania przez członków; jednak wiele organizacji oferuje dodatkowe nagrody i kary, aby motywować członków do przestrzegania kodeksu.
Przykłady:
- Kodeks etyki Oxford Munich
- Kodeks postępowania Stowarzyszenia Nauki o Danych (utworzony w 2013 r.)
- Kodeks etyki i postępowania zawodowego ACM (od 1993 r.)
🚨 Czy należysz do organizacji zawodowej inżynierii lub nauki o danych? Przejrzyj ich stronę, aby sprawdzić, czy definiują kodeks etyki zawodowej. Co mówi to o ich zasadach etycznych? Jak "zachęcają" członków do przestrzegania kodeksu?
2. Listy kontrolne etyki
Podczas gdy kodeksy zawodowe definiują wymagane zachowania etyczne od praktyków, mają znane ograniczenia w egzekwowaniu, szczególnie w projektach na dużą skalę. Zamiast tego wielu ekspertów nauki o danych zaleca listy kontrolne, które mogą połączyć zasady z praktykami w bardziej deterministyczny i wykonalny sposób.
Listy kontrolne przekształcają pytania w zadania "tak/nie", które można operacjonalizować, umożliwiając ich śledzenie jako część standardowych przepływów pracy przy wydawaniu produktów.
Przykłady:
- Deon - ogólna lista kontrolna etyki danych stworzona na podstawie rekomendacji branżowych z narzędziem wiersza poleceń do łatwej integracji.
- Lista kontrolna audytu prywatności - zapewnia ogólne wskazówki dotyczące praktyk zarządzania informacjami z perspektywy prawnej i społecznej.
- Lista kontrolna sprawiedliwości AI - stworzona przez praktyków AI, aby wspierać przyjęcie i integrację kontroli sprawiedliwości w cyklach rozwoju AI.
- 22 pytania dotyczące etyki w danych i AI - bardziej otwarta struktura, zaprojektowana do wstępnego badania problemów etycznych w projektowaniu, wdrażaniu i kontekstach organizacyjnych.
3. Regulacje etyczne
Etyka dotyczy definiowania wspólnych wartości i robienia właściwych rzeczy dobrowolnie. Zgodność dotyczy przestrzegania prawa, jeśli jest ono zdefiniowane. Zarządzanie obejmuje szeroko wszystkie sposoby, w jakie organizacje działają, aby egzekwować zasady etyczne i przestrzegać ustanowionych przepisów.
Obecnie zarządzanie przyjmuje dwie formy w organizacjach. Po pierwsze, chodzi o definiowanie zasad etycznego AI i ustanawianie praktyk, które operacjonalizują ich przyjęcie we wszystkich projektach związanych z AI w organizacji. Po drugie, chodzi o przestrzeganie wszystkich rządowych regulacji ochrony danych dla regionów, w których działa.
Przykłady regulacji ochrony danych i prywatności:
1974, US Privacy Act - reguluje federalne zbieranie, użycie i ujawnianie danych osobowych.1996, US Health Insurance Portability & Accountability Act (HIPAA) - chroni dane osobowe dotyczące zdrowia.1998, US Children's Online Privacy Protection Act (COPPA) - chroni prywatność danych dzieci poniżej 13 roku życia.2018, General Data Protection Regulation (GDPR) - zapewnia prawa użytkowników, ochronę danych i prywatność.2018, California Consumer Privacy Act (CCPA) - daje konsumentom więcej praw dotyczących ich (osobowych) danych.2021, Chińska ustawa o ochronie danych osobowych - właśnie uchwalona, tworzy jedne z najsilniejszych regulacji ochrony danych online na świecie.
🚨 Unia Europejska zdefiniowała GDPR (General Data Protection Regulation), które pozostaje jednym z najbardziej wpływowych regulacji dotyczących prywatności danych. Czy wiesz, że definiuje również 8 praw użytkowników, aby chronić cyfrową prywatność i dane osobowe obywateli? Dowiedz się, czym są te prawa i dlaczego są ważne.
4. Kultura etyki
Należy zauważyć, że istnieje niematerialna luka między zgodnością (robieniem wystarczająco dużo, aby spełnić "literę prawa") a rozwiązywaniem systemowych problemów (takich jak ossyfikacja, asymetria informacji i niesprawiedliwość dystrybucyjna), które mogą przyspieszyć uzbrojenie AI.
To drugie wymaga współpracy w definiowaniu kultur etycznych, które budują emocjonalne więzi i spójne wspólne wartości w organizacjach w branży. To wymaga bardziej sformalizowanych kultur etyki danych w organizacjach - pozwalając każdemu pociągnąć za sznur Andon (aby zgłosić obawy etyczne na wczesnym etapie procesu) i uczynić oceny etyczne (np. przy zatrudnianiu) kluczowym kryterium formowania zespołów w projektach AI.
Quiz po wykładzie 🎯
Przegląd i samodzielna nauka
Kursy i książki pomagają w zrozumieniu podstawowych koncepcji etycznych i wyzwań, podczas gdy studia przypadków i narzędzia pomagają w stosowaniu praktyk etycznych w rzeczywistych kontekstach. Oto kilka zasobów na początek.
- Machine Learning For Beginners - lekcja o sprawiedliwości od Microsoft.
- Zasady Odpowiedzialnej AI - darmowa ścieżka edukacyjna od Microsoft Learn.
- Etyka i Data Science - eBook od O'Reilly (M. Loukides, H. Mason i in.)
- Etyka w Data Science - kurs online od Uniwersytetu Michigan.
- Ethics Unwrapped - studia przypadków od Uniwersytetu Teksasu.
Zadanie
Napisz studium przypadku dotyczące etyki danych
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż staramy się zapewnić dokładność, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego języku źródłowym powinien być uznawany za autorytatywne źródło. W przypadku informacji krytycznych zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.

