|
2 weeks ago | |
---|---|---|
.. | ||
README.md | 2 weeks ago | |
assignment.md | 4 weeks ago |
README.md
Wprowadzenie do etyki danych
![]() |
---|
Etyka danych - Sketchnote autorstwa @nitya |
Wszyscy jesteśmy obywatelami danych żyjącymi w świecie zdominowanym przez dane.
Trendy rynkowe wskazują, że do 2022 roku 1 na 3 duże organizacje będzie kupować i sprzedawać swoje dane za pośrednictwem internetowych rynków i giełd. Jako twórcy aplikacji, łatwiej i taniej będzie nam integrować w codzienne doświadczenia użytkowników wnioski oparte na danych oraz automatyzację opartą na algorytmach. Jednak wraz z rozpowszechnieniem się AI, będziemy musieli zrozumieć potencjalne szkody wynikające z militaryzacji takich algorytmów na dużą skalę.
Trendy wskazują również, że do 2025 roku stworzymy i zużyjemy ponad 180 zettabajtów danych. Jako naukowcy danych, uzyskamy bezprecedensowy dostęp do danych osobowych. Oznacza to, że możemy budować profile behawioralne użytkowników i wpływać na podejmowanie decyzji w sposób, który tworzy iluzję wolnego wyboru, jednocześnie potencjalnie kierując użytkowników w preferowane przez nas kierunki. To również rodzi szersze pytania dotyczące prywatności danych i ochrony użytkowników.
Etyka danych staje się teraz niezbędnym zabezpieczeniem dla nauki i inżynierii danych, pomagając nam minimalizować potencjalne szkody i niezamierzone konsekwencje wynikające z naszych działań opartych na danych. Cykl Hype Gartnera dla AI identyfikuje istotne trendy w cyfrowej etyce, odpowiedzialnej AI i zarządzaniu AI jako kluczowe czynniki napędzające większe megatrendy wokół demokratyzacji i industrializacji AI.
W tej lekcji zgłębimy fascynujący obszar etyki danych - od podstawowych pojęć i wyzwań, przez studia przypadków, aż po zastosowane koncepcje AI, takie jak zarządzanie - które pomagają ustanowić kulturę etyki w zespołach i organizacjach pracujących z danymi i AI.
Quiz przed wykładem 🎯
Podstawowe definicje
Zacznijmy od zrozumienia podstawowej terminologii.
Słowo "etyka" pochodzi od greckiego słowa "ethikos" (i jego korzenia "ethos"), które oznacza charakter lub moralną naturę.
Etyka dotyczy wspólnych wartości i zasad moralnych, które regulują nasze zachowanie w społeczeństwie. Etyka opiera się nie na prawach, ale na powszechnie akceptowanych normach tego, co jest "dobre vs. złe". Jednak rozważania etyczne mogą wpływać na inicjatywy w zakresie ładu korporacyjnego i regulacje rządowe, które tworzą większe zachęty do przestrzegania zasad.
Etyka danych to nowa gałąź etyki, która "bada i ocenia problemy moralne związane z danymi, algorytmami i odpowiadającymi im praktykami". Tutaj "dane" koncentrują się na działaniach związanych z generowaniem, rejestrowaniem, kuracją, przetwarzaniem, rozpowszechnianiem, udostępnianiem i użytkowaniem, "algorytmy" skupiają się na AI, agentach, uczeniu maszynowym i robotach, a "praktyki" dotyczą takich tematów jak odpowiedzialna innowacja, programowanie, hacking i kodeksy etyczne.
Etyka stosowana to praktyczne zastosowanie rozważań moralnych. Jest to proces aktywnego badania kwestii etycznych w kontekście działań, produktów i procesów w rzeczywistym świecie oraz podejmowania działań naprawczych, aby zapewnić ich zgodność z określonymi wartościami etycznymi.
Kultura etyki dotyczy operacjonalizacji etyki stosowanej, aby upewnić się, że nasze zasady i praktyki etyczne są przyjmowane w sposób spójny i skalowalny w całej organizacji. Udane kultury etyki definiują zasady etyczne na poziomie organizacyjnym, zapewniają znaczące zachęty do przestrzegania zasad i wzmacniają normy etyczne, zachęcając i amplifikując pożądane zachowania na każdym poziomie organizacji.
Koncepcje etyki
W tej sekcji omówimy koncepcje takie jak wspólne wartości (zasady) i wyzwania etyczne (problemy) w etyce danych - oraz przeanalizujemy studia przypadków, które pomogą zrozumieć te koncepcje w kontekstach rzeczywistego świata.
1. Zasady etyki
Każda strategia etyki danych zaczyna się od zdefiniowania zasad etycznych - "wspólnych wartości", które opisują akceptowalne zachowania i kierują zgodnymi działaniami w naszych projektach związanych z danymi i AI. Można je definiować na poziomie indywidualnym lub zespołowym. Jednak większość dużych organizacji określa je w oświadczeniu misji lub ramach etycznej AI, które są definiowane na poziomie korporacyjnym i konsekwentnie egzekwowane we wszystkich zespołach.
Przykład: Oświadczenie misji Odpowiedzialnej AI firmy Microsoft brzmi: "Jesteśmy zaangażowani w rozwój AI kierowany przez zasady etyczne, które stawiają ludzi na pierwszym miejscu" - identyfikując 6 zasad etycznych w poniższych ramach:
Przyjrzyjmy się krótko tym zasadom. Przejrzystość i odpowiedzialność są podstawowymi wartościami, na których opierają się inne zasady - więc zacznijmy od nich:
- Odpowiedzialność sprawia, że praktycy są odpowiedzialni za swoje operacje związane z danymi i AI oraz za zgodność z tymi zasadami etycznymi.
- Przejrzystość zapewnia, że działania związane z danymi i AI są zrozumiałe (interpretowalne) dla użytkowników, wyjaśniając co i dlaczego stoi za decyzjami.
- Sprawiedliwość - koncentruje się na zapewnieniu, że AI traktuje wszystkich ludzi sprawiedliwie, rozwiązując wszelkie systemowe lub ukryte techniczno-społeczne uprzedzenia w danych i systemach.
- Niezawodność i bezpieczeństwo - zapewnia, że AI działa spójnie z określonymi wartościami, minimalizując potencjalne szkody lub niezamierzone konsekwencje.
- Prywatność i bezpieczeństwo - dotyczy zrozumienia pochodzenia danych oraz zapewnienia prywatności danych i związanych z nimi ochron użytkownikom.
- Inkluzywność - dotyczy projektowania rozwiązań AI z zamiarem dostosowania ich do szerokiego zakresu ludzkich potrzeb i możliwości.
🚨 Zastanów się, jakie mogłoby być Twoje oświadczenie misji etyki danych. Przeanalizuj ramy etycznej AI innych organizacji - oto przykłady od IBM, Google i Facebook. Jakie wspólne wartości mają? Jak te zasady odnoszą się do produktu AI lub branży, w której działają?
2. Wyzwania etyczne
Gdy mamy zdefiniowane zasady etyczne, kolejnym krokiem jest ocena naszych działań związanych z danymi i AI, aby sprawdzić, czy są zgodne z tymi wspólnymi wartościami. Zastanów się nad swoimi działaniami w dwóch kategoriach: zbieranie danych i projektowanie algorytmów.
W przypadku zbierania danych działania prawdopodobnie będą dotyczyć danych osobowych lub danych umożliwiających identyfikację osób (PII) dla identyfikowalnych żyjących jednostek. Obejmuje to różnorodne elementy danych nieosobowych, które łącznie identyfikują jednostkę. Wyzwania etyczne mogą dotyczyć prywatności danych, własności danych i powiązanych tematów, takich jak świadoma zgoda i prawa własności intelektualnej użytkowników.
W przypadku projektowania algorytmów działania będą obejmować zbieranie i kurację zbiorów danych, a następnie ich wykorzystanie do trenowania i wdrażania modeli danych, które przewidują wyniki lub automatyzują decyzje w rzeczywistych kontekstach. Wyzwania etyczne mogą wynikać z uprzedzeń w zbiorach danych, problemów z jakością danych, niesprawiedliwości i fałszywego przedstawienia w algorytmach - w tym niektórych problemów o charakterze systemowym.
W obu przypadkach wyzwania etyczne wskazują obszary, w których nasze działania mogą napotkać konflikt z naszymi wspólnymi wartościami. Aby wykryć, złagodzić, zminimalizować lub wyeliminować te obawy, musimy zadawać moralne pytania "tak/nie" dotyczące naszych działań, a następnie podejmować odpowiednie działania naprawcze. Przyjrzyjmy się niektórym wyzwaniom etycznym i moralnym pytaniom, które się z nimi wiążą:
2.1 Własność danych
Zbieranie danych często obejmuje dane osobowe, które mogą identyfikować podmioty danych. Własność danych dotyczy kontroli i praw użytkowników związanych z tworzeniem, przetwarzaniem i rozpowszechnianiem danych.
Moralne pytania, które należy zadać:
- Kto jest właścicielem danych? (użytkownik czy organizacja)
- Jakie prawa mają podmioty danych? (np. dostęp, usunięcie, przenoszenie)
- Jakie prawa mają organizacje? (np. poprawa złośliwych recenzji użytkowników)
2.2 Świadoma zgoda
Świadoma zgoda definiuje akt zgody użytkowników na działanie (np. zbieranie danych) z pełnym zrozumieniem istotnych faktów, w tym celu, potencjalnych ryzyk i alternatyw.
Pytania do rozważenia:
- Czy użytkownik (podmiot danych) wyraził zgodę na przechwytywanie i wykorzystanie danych?
- Czy użytkownik rozumiał cel, dla którego dane zostały przechwycone?
- Czy użytkownik rozumiał potencjalne ryzyka wynikające z jego udziału?
2.3 Własność intelektualna
Własność intelektualna odnosi się do niematerialnych wytworów wynikających z ludzkiej inicjatywy, które mogą mieć wartość ekonomiczną dla jednostek lub firm.
Pytania do rozważenia:
- Czy zebrane dane miały wartość ekonomiczną dla użytkownika lub firmy?
- Czy użytkownik ma tutaj własność intelektualną?
- Czy organizacja ma tutaj własność intelektualną?
- Jeśli te prawa istnieją, jak je chronimy?
2.4 Prywatność danych
Prywatność danych lub prywatność informacji odnosi się do zachowania prywatności użytkownika i ochrony jego tożsamości w odniesieniu do danych umożliwiających identyfikację.
Pytania do rozważenia:
- Czy dane użytkowników (osobowe) są zabezpieczone przed atakami i wyciekami?
- Czy dane użytkowników są dostępne tylko dla autoryzowanych użytkowników i kontekstów?
- Czy anonimowość użytkowników jest zachowana podczas udostępniania lub rozpowszechniania danych?
- Czy użytkownik może zostać zdeidentyfikowany z anonimowych zbiorów danych?
2.5 Prawo do bycia zapomnianym
Prawo do bycia zapomnianym lub Prawo do usunięcia zapewnia dodatkową ochronę danych osobowych użytkownikom. W szczególności daje użytkownikom prawo do żądania usunięcia lub wymazania danych osobowych z wyszukiwarek internetowych i innych miejsc, w określonych okolicznościach - pozwalając im na nowy start online bez trzymania ich przeszłych działań przeciwko nim.
Pytania do rozważenia:
- Czy system pozwala podmiotom danych na żądanie usunięcia?
- Czy wycofanie zgody użytkownika powinno uruchamiać automatyczne usunięcie?
- Czy dane zostały zebrane bez zgody lub w sposób niezgodny z prawem?
- Czy jesteśmy zgodni z regulacjami rządowymi dotyczącymi prywatności danych?
2.6 Uprzedzenia w zbiorach danych
Uprzedzenia w zbiorach danych lub uprzedzenia w zbieraniu danych dotyczą wyboru niereprezentatywnego podzbioru danych do rozwoju algorytmu, co może prowadzić do potencjalnej niesprawiedliwości w wynikach dla różnych grup. Rodzaje uprzedzeń obejmują uprzedzenia w wyborze lub próbkowaniu, uprzedzenia ochotników i uprzedzenia instrumentów.
Pytania do rozważenia:
- Czy zrekrutowaliśmy reprezentatywny zestaw podmiotów danych?
- Czy przetestowaliśmy nasz zebrany lub kuratowany zbiór danych pod kątem różnych uprzedzeń?
- Czy możemy złagodzić lub usunąć odkryte uprzedzenia?
2.7 Jakość danych
Jakość danych sprawdza ważność kuratowanego zbioru danych używanego do rozwoju naszych algorytmów, sprawdzając, czy cechy i rekordy spełniają wymagania dotyczące poziomu dokładności i spójności potrzebnego dla naszego celu AI.
Pytania do rozważenia:
- Czy przechwyciliśmy ważne cechy dla naszego przypadku użycia?
- Czy dane były przechwy Algorithm Fairness sprawdza, czy projekt algorytmu systematycznie dyskryminuje określone podgrupy osób, co prowadzi do potencjalnych szkód w alokacji (gdzie zasoby są odmawiane lub wstrzymywane dla tej grupy) oraz jakości usług (gdzie AI jest mniej dokładne dla niektórych podgrup niż dla innych).
Pytania, które warto tutaj rozważyć:
- Czy oceniliśmy dokładność modelu dla różnych podgrup i warunków?
- Czy przeanalizowaliśmy system pod kątem potencjalnych szkód (np. stereotypizacji)?
- Czy możemy zmodyfikować dane lub ponownie wytrenować modele, aby zminimalizować zidentyfikowane szkody?
Zapoznaj się z zasobami, takimi jak AI Fairness checklists, aby dowiedzieć się więcej.
2.9 Wprowadzenie w błąd
Wprowadzenie w błąd w danych dotyczy pytania, czy komunikujemy wnioski z uczciwie zgromadzonych danych w sposób zwodniczy, aby wspierać pożądany przekaz.
Pytania, które warto tutaj rozważyć:
- Czy raportujemy niekompletne lub nieprecyzyjne dane?
- Czy wizualizujemy dane w sposób prowadzący do mylących wniosków?
- Czy stosujemy selektywne techniki statystyczne, aby manipulować wynikami?
- Czy istnieją alternatywne wyjaśnienia, które mogą prowadzić do innych wniosków?
2.10 Wolny wybór
Iluzja wolnego wyboru pojawia się, gdy "architektury wyboru" systemu wykorzystują algorytmy decyzyjne, aby nakłonić ludzi do podjęcia preferowanego działania, jednocześnie dając im pozorną kontrolę i opcje. Te ciemne wzorce mogą powodować szkody społeczne i ekonomiczne dla użytkowników. Ponieważ decyzje użytkowników wpływają na profile zachowań, te działania mogą potencjalnie napędzać przyszłe wybory, które wzmacniają lub rozszerzają skutki tych szkód.
Pytania, które warto tutaj rozważyć:
- Czy użytkownik rozumiał konsekwencje podjęcia tej decyzji?
- Czy użytkownik był świadomy (alternatywnych) opcji oraz ich zalet i wad?
- Czy użytkownik może później cofnąć automatyczną lub wpłyniętą decyzję?
3. Studia przypadków
Aby umieścić te wyzwania etyczne w kontekście rzeczywistym, warto przyjrzeć się studiom przypadków, które podkreślają potencjalne szkody i konsekwencje dla jednostek i społeczeństwa, gdy naruszenia etyki są ignorowane.
Oto kilka przykładów:
Wyzwanie etyczne | Studium przypadku |
---|---|
Świadoma zgoda | 1972 - Tuskegee Syphilis Study - Afroamerykańscy mężczyźni, którzy uczestniczyli w badaniu, zostali obiecani darmową opieką medyczną, ale zostali oszukani przez badaczy, którzy nie poinformowali ich o diagnozie ani o dostępności leczenia. Wielu uczestników zmarło, a ich partnerzy lub dzieci zostali dotknięci; badanie trwało 40 lat. |
Prywatność danych | 2007 - Netflix data prize udostępniło badaczom 10M zanonimizowanych ocen filmów od 50K klientów, aby pomóc w ulepszaniu algorytmów rekomendacji. Jednak badacze byli w stanie powiązać zanonimizowane dane z danymi osobowymi w zewnętrznych zbiorach danych (np. komentarze na IMDb), skutecznie "deanonimizując" niektórych subskrybentów Netflixa. |
Stronniczość w zbieraniu danych | 2013 - Miasto Boston opracowało Street Bump, aplikację pozwalającą obywatelom zgłaszać dziury w drogach, dostarczając miastu lepszych danych o drogach. Jednak osoby z niższych grup dochodowych miały mniejszy dostęp do samochodów i telefonów, co sprawiło, że ich problemy drogowe były niewidoczne w tej aplikacji. Twórcy współpracowali z akademikami, aby rozwiązać problemy równego dostępu i cyfrowych podziałów dla sprawiedliwości. |
Sprawiedliwość algorytmiczna | 2018 - MIT Gender Shades Study oceniło dokładność produktów AI klasyfikujących płeć, ujawniając luki w dokładności dla kobiet i osób o ciemniejszym kolorze skóry. Apple Card z 2019 roku wydawała się oferować mniej kredytu kobietom niż mężczyznom. Oba przypadki ilustrują problemy z uprzedzeniami algorytmicznymi prowadzącymi do szkód społeczno-ekonomicznych. |
Wprowadzenie w błąd w danych | 2020 - Georgia Department of Public Health opublikowało wykresy COVID-19, które wydawały się wprowadzać obywateli w błąd co do trendów w potwierdzonych przypadkach poprzez niechronologiczne uporządkowanie osi x. To ilustruje wprowadzenie w błąd za pomocą trików wizualizacyjnych. |
Iluzja wolnego wyboru | 2020 - Aplikacja edukacyjna ABCmouse zapłaciła 10M dolarów w ramach ugody z FTC, gdzie rodzice byli zmuszani do płacenia za subskrypcje, których nie mogli anulować. To ilustruje ciemne wzorce w architekturach wyboru, gdzie użytkownicy byli nakłaniani do potencjalnie szkodliwych decyzji. |
Prywatność danych i prawa użytkowników | 2021 - Facebook Data Breach ujawniło dane 530M użytkowników, co skutkowało ugodą w wysokości 5B dolarów z FTC. Jednak odmówiło powiadomienia użytkowników o naruszeniu, naruszając prawa użytkowników dotyczące przejrzystości danych i dostępu. |
Chcesz poznać więcej studiów przypadków? Sprawdź te zasoby:
- Ethics Unwrapped - dylematy etyczne w różnych branżach.
- Data Science Ethics course - omówione kluczowe studia przypadków.
- Where things have gone wrong - lista kontrolna Deon z przykładami.
🚨 Zastanów się nad studiami przypadków, które widziałeś - czy doświadczyłeś lub byłeś dotknięty podobnym wyzwaniem etycznym w swoim życiu? Czy możesz wymyślić co najmniej jedno inne studium przypadku, które ilustruje jedno z wyzwań etycznych omówionych w tej sekcji?
Zastosowanie etyki
Omówiliśmy koncepcje etyczne, wyzwania i studia przypadków w kontekstach rzeczywistych. Ale jak zacząć stosować zasady i praktyki etyczne w naszych projektach? I jak operacjonalizować te praktyki dla lepszego zarządzania? Przyjrzyjmy się kilku rozwiązaniom w rzeczywistym świecie:
1. Kodeksy zawodowe
Kodeksy zawodowe oferują jedną z opcji dla organizacji, aby "zachęcić" członków do wspierania ich zasad etycznych i misji. Kodeksy są moralnymi wytycznymi dla zachowań zawodowych, pomagając pracownikom lub członkom podejmować decyzje zgodne z zasadami organizacji. Są skuteczne tylko w przypadku dobrowolnego przestrzegania przez członków; jednak wiele organizacji oferuje dodatkowe nagrody i kary, aby motywować członków do przestrzegania zasad.
Przykłady obejmują:
- Oxford Munich Kodeks Etyki
- Data Science Association Kodeks Postępowania (utworzony w 2013 roku)
- ACM Code of Ethics and Professional Conduct (od 1993 roku)
🚨 Czy należysz do organizacji zawodowej związanej z inżynierią lub nauką o danych? Sprawdź ich stronę, aby zobaczyć, czy definiują kodeks etyki zawodowej. Co mówi to o ich zasadach etycznych? Jak "zachęcają" członków do przestrzegania kodeksu?
2. Listy kontrolne etyki
Podczas gdy kodeksy zawodowe definiują wymagane zachowania etyczne od praktyków, mają znane ograniczenia w egzekwowaniu, szczególnie w projektach na dużą skalę. Zamiast tego wielu ekspertów ds. nauki o danych zaleca listy kontrolne, które mogą połączyć zasady z praktykami w bardziej deterministyczny i wykonalny sposób.
Listy kontrolne przekształcają pytania w zadania "tak/nie", które można operacjonalizować, umożliwiając ich śledzenie jako część standardowych procesów wydania produktu.
Przykłady obejmują:
- Deon - ogólna lista kontrolna etyki danych stworzona na podstawie rekomendacji branżowych z narzędziem wiersza poleceń do łatwej integracji.
- Privacy Audit Checklist - zapewnia ogólne wskazówki dotyczące praktyk obsługi informacji z perspektywy prawnej i społecznej.
- AI Fairness Checklist - stworzona przez praktyków AI, aby wspierać przyjęcie i integrację kontroli sprawiedliwości w cyklach rozwoju AI.
- 22 questions for ethics in data and AI - bardziej otwarta struktura, zaprojektowana do wstępnej eksploracji problemów etycznych w projektowaniu, wdrażaniu i kontekstach organizacyjnych.
3. Regulacje etyczne
Etyka dotyczy definiowania wspólnych wartości i dobrowolnego postępowania właściwie. Zgodność dotyczy przestrzegania prawa, jeśli jest ono określone. Zarządzanie obejmuje szeroko wszystkie sposoby, w jakie organizacje działają, aby egzekwować zasady etyczne i przestrzegać ustalonych przepisów.
Obecnie zarządzanie przyjmuje dwie formy w organizacjach. Po pierwsze, chodzi o definiowanie zasad etycznego AI i ustanawianie praktyk, które operacjonalizują ich przyjęcie we wszystkich projektach związanych z AI w organizacji. Po drugie, chodzi o przestrzeganie wszystkich rządowych regulacji dotyczących ochrony danych w regionach, w których działa.
Przykłady regulacji dotyczących ochrony danych i prywatności:
1974
, US Privacy Act - reguluje federalne zbieranie, użycie i ujawnianie danych osobowych.1996
, US Health Insurance Portability & Accountability Act (HIPAA) - chroni dane osobowe dotyczące zdrowia.1998
, US Children's Online Privacy Protection Act (COPPA) - chroni prywatność danych dzieci poniżej 13 roku życia.2018
, General Data Protection Regulation (GDPR) - zapewnia prawa użytkowników, ochronę danych i prywatność.2018
, California Consumer Privacy Act (CCPA) daje konsumentom więcej praw dotyczących ich (osobistych) danych.2021
, Chińska ustawa o ochronie danych osobowych właśnie uchwalona, tworząc jedne z najsilniejszych regulacji dotyczących prywatności danych online na świecie.
🚨 Unia Europejska zdefiniowała GDPR (Ogólne Rozporządzenie o Ochronie Danych), które pozostaje jednym z najbardziej wpływowych regulacji dotyczących prywatności danych dzisiaj. Czy wiesz, że definiuje również 8 praw użytkowników, aby chronić cyfrową prywatność i dane osobowe obywateli? Dowiedz się, czym są te prawa i dlaczego są ważne.
4. Kultura etyki
Należy zauważyć, że istnieje niematerialna luka między zgodnością (robieniem wystarczająco dużo, aby spełnić "literę prawa") a rozwiązywaniem systemowych problemów (takich jak utrwalanie, asymetria informacji i niesprawiedliwość dystrybucyjna), które mogą przyspieszyć uzbrojenie AI.
To drugie wymaga współpracy w definiowaniu kultur etycznych, które budują emocjonalne więzi i spójne wspólne wartości w organizacjach w branży. To wymaga bardziej sformalizowanych kultur etyki danych w organizacjach - pozwalając każdemu pociągnąć za sznur Andon (aby zgłosić obawy etyczne na wczesnym etapie procesu) i czyniąc oceny etyczne (np. w zatrudnianiu) kluczowym kryterium formowania zespołów w projektach AI.
Quiz po wykładzie 🎯
Przegląd i samodzielna nauka
Kursy i książki pomagają w zrozumieniu podstawowych koncepcji etyki i wyzwań, podczas gdy studia przypadków i narzędzia pomagają w stosowaniu praktyk etycznych w rzeczywistych kontekstach. Oto kilka zasobów na początek:
- Machine Learning For Beginners - lekcja o sprawiedliwości, od Microsoft.
- Zasady odpowiedzialnej sztucznej inteligencji - darmowy kurs edukacyjny od Microsoft Learn.
- Etyka i nauka o danych - e-book O'Reilly (M. Loukides, H. Mason i in.)
- Etyka w nauce o danych - kurs online Uniwersytetu Michigan.
- Etyka w praktyce - studia przypadków Uniwersytetu Teksasu.
Zadanie
Napisz studium przypadku dotyczące etyki danych
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za źródło autorytatywne. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.