You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/sv/1-Introduction/02-ethics
leestott 264ebcc9fd
🌐 Update translations via Co-op Translator
2 weeks ago
..
README.md 🌐 Update translations via Co-op Translator 2 weeks ago
assignment.md 🌐 Update translations via Co-op Translator 4 weeks ago

README.md

Introduktion till Dataetik

 Sketchnote av (@sketchthedocs)
Dataetik inom Data Science - Sketchnote av @nitya

Vi är alla datamedborgare som lever i en datadriven värld.

Marknadstrender visar att år 2022 kommer 1 av 3 stora organisationer att köpa och sälja sin data via online marknadsplatser och utbyten. Som apputvecklare kommer vi att upptäcka att det blir enklare och billigare att integrera datadrivna insikter och algoritmstyrd automatisering i dagliga användarupplevelser. Men när AI blir alltmer utbrett måste vi också förstå de potentiella skador som kan orsakas av vapenisering av sådana algoritmer i stor skala.

Trender visar också att vi kommer att skapa och konsumera över 180 zettabyte data år 2025. Som dataforskare ger detta oss enastående tillgång till personlig data. Det innebär att vi kan bygga beteendeprofiler av användare och påverka beslutsfattande på sätt som skapar en illusion av fri vilja samtidigt som vi potentiellt styr användare mot resultat vi föredrar. Det väcker också bredare frågor om datasekretess och användarskydd.

Dataetik är nu nödvändiga skyddsräcken för dataforskning och ingenjörskonst, som hjälper oss att minimera potentiella skador och oavsiktliga konsekvenser av våra datadrivna handlingar. Gartners Hype Cycle för AI identifierar relevanta trender inom digital etik, ansvarsfull AI och AI-styrning som nyckeldrivkrafter för större megatrender kring demokratisering och industrialisering av AI.

Gartners Hype Cycle för AI - 2020

I denna lektion kommer vi att utforska det fascinerande området dataetik - från grundläggande begrepp och utmaningar till fallstudier och tillämpade AI-koncept som styrning - som hjälper till att etablera en etisk kultur i team och organisationer som arbetar med data och AI.

Quiz före föreläsningen 🎯

Grundläggande Definitioner

Låt oss börja med att förstå den grundläggande terminologin.

Ordet "etik" kommer från det grekiska ordet "ethikos" (och dess rot "ethos") som betyder karaktär eller moralisk natur.

Etik handlar om de gemensamma värderingar och moraliska principer som styr vårt beteende i samhället. Etik baseras inte på lagar utan på allmänt accepterade normer för vad som är "rätt kontra fel". Etiska överväganden kan dock påverka företagsstyrningsinitiativ och regeringsregleringar som skapar fler incitament för efterlevnad.

Dataetik är en ny gren av etiken som "studerar och utvärderar moraliska problem relaterade till data, algoritmer och motsvarande praxis". Här fokuserar "data" på handlingar relaterade till generering, registrering, kurering, bearbetning, spridning, delning och användning, "algoritmer" fokuserar på AI, agenter, maskininlärning och robotar, och "praxis" fokuserar på ämnen som ansvarsfull innovation, programmering, hacking och etiska koder.

Tillämpad etik är den praktiska tillämpningen av moraliska överväganden. Det är processen att aktivt undersöka etiska frågor i samband med verkliga handlingar, produkter och processer, och vidta korrigerande åtgärder för att säkerställa att dessa förblir i linje med våra definierade etiska värderingar.

Etisk kultur handlar om operationalisering av tillämpad etik för att säkerställa att våra etiska principer och praxis antas på ett konsekvent och skalbart sätt över hela organisationen. Framgångsrika etiska kulturer definierar organisationsövergripande etiska principer, tillhandahåller meningsfulla incitament för efterlevnad och förstärker etiska normer genom att uppmuntra och förstärka önskade beteenden på varje nivå i organisationen.

Etiska Begrepp

I denna sektion kommer vi att diskutera begrepp som gemensamma värderingar (principer) och etiska utmaningar (problem) för dataetik - och utforska fallstudier som hjälper dig att förstå dessa begrepp i verkliga sammanhang.

1. Etiska Principer

Varje strategi för dataetik börjar med att definiera etiska principer - de "gemensamma värderingar" som beskriver acceptabla beteenden och styr efterlevnad i våra data- och AI-projekt. Du kan definiera dessa på individuell eller teamnivå. Men de flesta stora organisationer beskriver dessa i ett etiskt AI-uppdrag eller ramverk som definieras på företagsnivå och tillämpas konsekvent över alla team.

Exempel: Microsofts Ansvarsfull AI uppdrag lyder: "Vi är engagerade i att främja AI som drivs av etiska principer som sätter människor först" - och identifierar 6 etiska principer i ramverket nedan:

Ansvarsfull AI hos Microsoft

Låt oss kortfattat utforska dessa principer. Transparens och ansvar är grundläggande värderingar som andra principer bygger på - så låt oss börja där:

  • Ansvar gör utövare ansvariga för sina data- och AI-operationer och efterlevnad av dessa etiska principer.
  • Transparens säkerställer att data och AI-åtgärder är förståeliga (tolkbara) för användare, och förklarar vad och varför bakom beslut.
  • Rättvisa - fokuserar på att säkerställa att AI behandlar alla människor rättvist, och adresserar eventuella systemiska eller implicita socio-tekniska fördomar i data och system.
  • Tillförlitlighet och Säkerhet - säkerställer att AI beter sig konsekvent med definierade värderingar, och minimerar potentiella skador eller oavsiktliga konsekvenser.
  • Sekretess och Säkerhet - handlar om att förstå dataursprung och tillhandahålla datasekretess och relaterade skydd för användare.
  • Inkludering - handlar om att designa AI-lösningar med avsikt, och anpassa dem för att möta ett brett spektrum av mänskliga behov och förmågor.

🚨 Fundera på vad ditt dataetiska uppdrag skulle kunna vara. Utforska etiska AI-ramverk från andra organisationer - här är exempel från IBM, Google, och Facebook. Vilka gemensamma värderingar har de? Hur relaterar dessa principer till AI-produkten eller industrin de verkar inom?

2. Etiska Utmaningar

När vi har definierat etiska principer är nästa steg att utvärdera våra data- och AI-åtgärder för att se om de överensstämmer med dessa gemensamma värderingar. Tänk på dina åtgärder i två kategorier: datainsamling och algoritmdesign.

Vid datainsamling kommer åtgärder sannolikt att involvera personlig data eller personligt identifierbar information (PII) för identifierbara levande individer. Detta inkluderar olika typer av icke-personlig data som tillsammans kan identifiera en individ. Etiska utmaningar kan relatera till datasekretess, dataägande och relaterade ämnen som informerat samtycke och immateriella rättigheter för användare.

Vid algoritmdesign kommer åtgärder att involvera insamling och kurering av datamängder, och sedan använda dem för att träna och implementera datamodeller som förutspår resultat eller automatiserar beslut i verkliga sammanhang. Etiska utmaningar kan uppstå från datamängdsfördomar, datakvalitetsproblem, orättvisa och missrepresentation i algoritmer - inklusive vissa problem som är systemiska till sin natur.

I båda fallen belyser etiska utmaningar områden där våra åtgärder kan komma i konflikt med våra gemensamma värderingar. För att upptäcka, mildra, minimera eller eliminera dessa bekymmer måste vi ställa moraliska "ja/nej"-frågor relaterade till våra åtgärder och vidta korrigerande åtgärder vid behov. Låt oss titta på några etiska utmaningar och de moraliska frågor de väcker:

2.1 Dataägande

Datainsamling involverar ofta personlig data som kan identifiera datasubjekten. Dataägande handlar om kontroll och användarrättigheter relaterade till skapande, bearbetning och spridning av data.

De moraliska frågor vi behöver ställa är:

  • Vem äger datan? (användare eller organisation)
  • Vilka rättigheter har datasubjekten? (ex: åtkomst, radering, portabilitet)
  • Vilka rättigheter har organisationer? (ex: rätta skadliga användarrecensioner)

2.2 Informerat Samtycke

Informerat samtycke definierar handlingen där användare godkänner en åtgärd (som datainsamling) med en full förståelse av relevanta fakta inklusive syfte, potentiella risker och alternativ.

Frågor att utforska här är:

  • Gav användaren (datasubjektet) tillstånd för datainsamling och användning?
  • Förstod användaren syftet med att datan samlades in?
  • Förstod användaren de potentiella riskerna med sitt deltagande?

2.3 Immateriella Rättigheter

Immateriella rättigheter avser immateriella skapelser som resultat av mänskligt initiativ, som kan ha ekonomiskt värde för individer eller företag.

Frågor att utforska här är:

  • Hade den insamlade datan ekonomiskt värde för en användare eller ett företag?
  • Har användaren immateriella rättigheter här?
  • Har organisationen immateriella rättigheter här?
  • Om dessa rättigheter finns, hur skyddar vi dem?

2.4 Datasekretess

Datasekretess eller informationssekretess avser bevarandet av användarsekretess och skydd av användaridentitet med avseende på personligt identifierbar information.

Frågor att utforska här är:

  • Är användarnas (personliga) data säkrad mot hack och läckor?
  • Är användarnas data endast tillgänglig för auktoriserade användare och sammanhang?
  • Bevaras användarnas anonymitet när data delas eller sprids?
  • Kan en användare avidentifieras från anonymiserade datamängder?

2.5 Rätten att Bli Glömd

Rätten att bli glömd eller Rätten till Radering ger ytterligare skydd för personlig data till användare. Specifikt ger det användare rätt att begära radering eller borttagning av personlig data från internetsökningar och andra platser, under specifika omständigheter - vilket ger dem en ny start online utan att tidigare handlingar hålls emot dem.

Frågor att utforska här är:

  • Tillåter systemet datasubjekt att begära radering?
  • Bör återkallande av användarsamtycke utlösa automatisk radering?
  • Samlades data in utan samtycke eller på olagliga sätt?
  • Är vi kompatibla med regeringsregler för datasekretess?

2.6 Datamängdsfördomar

Datamängds- eller insamlingfördomar handlar om att välja en icke-representativ delmängd av data för algoritmutveckling, vilket skapar potentiell orättvisa i resultat för olika grupper. Typer av fördomar inkluderar urvals- eller provtagningsfördomar, frivilligfördomar och instrumentfördomar.

Frågor att utforska här är:

  • Rekryterade vi en representativ uppsättning datasubjekt?
  • Testade vi vår insamlade eller kuraterade datamängd för olika fördomar?
  • Kan vi mildra eller ta bort upptäckta fördomar?

2.7 Datakvalitet

Datakvalitet handlar om att kontrollera validiteten hos den kuraterade datamängden som används för att utveckla våra algoritmer, och se om funktioner och poster uppfyller kraven för den nivå av noggrannhet och konsekvens som behövs för vårt AI-syfte.

Frågor att utforska här är:

  • Fångade vi giltiga funktioner för vårt användningsfall?
  • Samlades data in konsekvent över olika datakällor?
  • Är datamängden komplett för olika förhållanden eller scenarier?
  • Är informationen som samlades in korrekt i att återspegla verkligheten?

2.8 Algoritmisk Rättvisa

Algorithmisk rättvisa handlar om att undersöka om algoritmdesignen systematiskt diskriminerar specifika undergrupper av datainsamlade individer, vilket kan leda till potentiella skador inom resursfördelning (där resurser nekas eller undanhålls från den gruppen) och servicekvalitet (där AI inte är lika exakt för vissa undergrupper som för andra).

Frågor att utforska här är:

  • Har vi utvärderat modellens noggrannhet för olika undergrupper och förhållanden?
  • Har vi granskat systemet för potentiella skador (t.ex. stereotyper)?
  • Kan vi revidera data eller träna om modeller för att minska identifierade skador?

Utforska resurser som AI Fairness checklists för att lära dig mer.

2.9 Missrepresentation

Datamissrepresentation handlar om att fråga om vi kommunicerar insikter från ärligt rapporterad data på ett vilseledande sätt för att stödja en önskad berättelse.

Frågor att utforska här är:

  • Rapporterar vi ofullständig eller felaktig data?
  • Visualiserar vi data på ett sätt som leder till vilseledande slutsatser?
  • Använder vi selektiva statistiska tekniker för att manipulera resultat?
  • Finns det alternativa förklaringar som kan ge en annan slutsats?

2.10 Fri vilja

Illusionen av fri vilja uppstår när systemets "valarkitekturer" använder beslutsalgoritmer för att påverka människor att ta ett föredraget resultat samtidigt som det verkar ge dem alternativ och kontroll. Dessa mörka mönster kan orsaka social och ekonomisk skada för användare. Eftersom användarens beslut påverkar beteendeprofiler kan dessa handlingar potentiellt driva framtida val som förstärker eller förlänger effekten av dessa skador.

Frågor att utforska här är:

  • Förstod användaren konsekvenserna av att göra det valet?
  • Var användaren medveten om (alternativa) val och för- och nackdelarna med varje?
  • Kan användaren senare ändra ett automatiserat eller påverkat val?

3. Fallstudier

För att sätta dessa etiska utmaningar i verkliga sammanhang kan det vara hjälpsamt att titta på fallstudier som belyser potentiella skador och konsekvenser för individer och samhället när sådana etiska överträdelser förbises.

Här är några exempel:

Etisk utmaning Fallstudie
Informerat samtycke 1972 - Tuskegee Syfilisstudien - Afroamerikanska män som deltog i studien lovades gratis medicinsk vård men blev lurade av forskare som inte informerade deltagarna om deras diagnos eller om tillgänglig behandling. Många deltagare dog och deras partners eller barn påverkades; studien pågick i 40 år.
Datasekretess 2007 - Netflix dataprize gav forskare 10M anonymiserade filmrankningar från 50K kunder för att förbättra rekommendationsalgoritmer. Dock kunde forskare korrelera anonymiserad data med personligt identifierbar data i externa dataset (t.ex. IMDb-kommentarer) - vilket effektivt "de-anonymiserade" vissa Netflix-abonnenter.
Insamlingsbias 2013 - Staden Boston utvecklade Street Bump, en app som lät medborgare rapportera potthål, vilket gav staden bättre vägdata för att hitta och åtgärda problem. Dock hade personer i låginkomstgrupper mindre tillgång till bilar och telefoner, vilket gjorde deras vägproblem osynliga i appen. Utvecklarna samarbetade med akademiker för att hantera rättvis tillgång och digitala klyftor.
Algoritmisk rättvisa 2018 - MIT:s Gender Shades Study utvärderade noggrannheten hos AI-produkter för könsklassificering och avslöjade brister i noggrannhet för kvinnor och personer med mörkare hudton. Ett 2019 Apple Card verkade erbjuda mindre kredit till kvinnor än män. Båda exemplen illustrerade problem med algoritmisk bias som leder till socioekonomiska skador.
Datamissrepresentation 2020 - Georgia Department of Public Health släppte COVID-19-diagram som verkade vilseleda medborgare om trender i bekräftade fall med icke-kronologisk ordning på x-axeln. Detta illustrerar missrepresentation genom visualiseringstrick.
Illusionen av fri vilja 2020 - Läroappen ABCmouse betalade $10M för att lösa en FTC-klagan där föräldrar fastnade i att betala för abonnemang de inte kunde avbryta. Detta illustrerar mörka mönster i valarkitekturer, där användare påverkades att göra potentiellt skadliga val.
Datasekretess & användarrättigheter 2021 - Facebook Data Breach exponerade data från 530M användare, vilket resulterade i en $5B-uppgörelse med FTC. Dock vägrade företaget att informera användare om dataintrånget, vilket bröt mot användarrättigheter kring datatransparens och åtkomst.

Vill du utforska fler fallstudier? Kolla in dessa resurser:

🚨 Tänk på de fallstudier du har sett - har du upplevt eller blivit påverkad av en liknande etisk utmaning i ditt liv? Kan du komma på minst en annan fallstudie som illustrerar en av de etiska utmaningarna vi har diskuterat i detta avsnitt?

Tillämpad etik

Vi har pratat om etiska koncept, utmaningar och fallstudier i verkliga sammanhang. Men hur börjar vi tillämpa etiska principer och praxis i våra projekt? Och hur operationaliserar vi dessa praxis för bättre styrning? Låt oss utforska några verkliga lösningar:

1. Professionella koder

Professionella koder erbjuder ett alternativ för organisationer att "motivera" medlemmar att stödja deras etiska principer och mission. Koder är moraliska riktlinjer för professionellt beteende och hjälper anställda eller medlemmar att fatta beslut som överensstämmer med organisationens principer. De är endast effektiva om medlemmarna frivilligt följer dem; dock erbjuder många organisationer ytterligare belöningar och straff för att motivera efterlevnad.

Exempel inkluderar:

🚨 Tillhör du en professionell ingenjörs- eller datavetenskapsorganisation? Utforska deras webbplats för att se om de definierar en professionell etisk kod. Vad säger detta om deras etiska principer? Hur motiverar de medlemmar att följa koden?

2. Etiska checklistor

Medan professionella koder definierar nödvändigt etiskt beteende från praktiker, har de kända begränsningar i efterlevnad, särskilt i storskaliga projekt. Istället förespråkar många datavetenskapsexperter checklistor som kan koppla principer till praxis på mer deterministiska och handlingsbara sätt.

Checklistor omvandlar frågor till "ja/nej"-uppgifter som kan operationaliseras, vilket gör att de kan spåras som en del av standardarbetsflöden för produktlansering.

Exempel inkluderar:

  • Deon - en allmän datavetenskaplig etisk checklista skapad från branschrekommendationer med ett kommandoradsverktyg för enkel integration.
  • Privacy Audit Checklist - ger allmän vägledning för informationshantering ur juridiska och sociala perspektiv.
  • AI Fairness Checklist - skapad av AI-praktiker för att stödja adoption och integration av rättvisekontroller i AI-utvecklingscykler.
  • 22 frågor för etik inom data och AI - en mer öppen ram, strukturerad för initial utforskning av etiska frågor i design, implementering och organisatoriska sammanhang.

3. Etiska regleringar

Etik handlar om att definiera gemensamma värderingar och göra det rätta frivilligt. Efterlevnad handlar om att följa lagen där den är definierad. Styrning omfattar brett alla sätt som organisationer arbetar för att upprätthålla etiska principer och följa etablerade lagar.

Idag tar styrning två former inom organisationer. För det första handlar det om att definiera etiska AI-principer och etablera praxis för att operationalisera adoption över alla AI-relaterade projekt i organisationen. För det andra handlar det om att följa alla statligt föreskrivna dataskyddsregleringar för regioner där organisationen verkar.

Exempel på dataskydds- och sekretessregleringar:

🚨 Europeiska unionens GDPR (General Data Protection Regulation) är fortfarande en av de mest inflytelserika regleringarna för datasekretess idag. Visste du att den också definierar 8 användarrättigheter för att skydda medborgares digitala sekretess och personliga data? Lär dig vad dessa är och varför de är viktiga.

4. Etisk kultur

Observera att det fortfarande finns en immateriell klyfta mellan efterlevnad (att göra tillräckligt för att uppfylla "lagens bokstav") och att adressera systemiska problem (som stelhet, informationsasymmetri och orättvis fördelning) som kan påskynda AI:s vapenisering.

Det senare kräver samarbetsmetoder för att definiera etiska kulturer som bygger känslomässiga kopplingar och konsekventa gemensamma värderingar över organisationer inom branschen. Detta kräver mer formaliserade datavetenskapliga etiska kulturer i organisationer - vilket gör det möjligt för vem som helst att dra Andon-snöret (för att lyfta etiska problem tidigt i processen) och göra etiska bedömningar (t.ex. vid rekrytering) till ett kärnkriterium för teambildning i AI-projekt.


Efterföreläsningsquiz 🎯

Granskning & Självstudier

Kurser och böcker hjälper till att förstå grundläggande etiska koncept och utmaningar, medan fallstudier och verktyg hjälper till med tillämpad etik i verkliga sammanhang. Här är några resurser att börja med.

Uppgift

Skriv en fallstudie om dataetik


Ansvarsfriskrivning:
Detta dokument har översatts med hjälp av AI-översättningstjänsten Co-op Translator. Även om vi strävar efter noggrannhet, bör du vara medveten om att automatiserade översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.