You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/fi/1-Introduction/02-ethics
leestott 264ebcc9fd
🌐 Update translations via Co-op Translator
2 weeks ago
..
README.md 🌐 Update translations via Co-op Translator 2 weeks ago
assignment.md 🌐 Update translations via Co-op Translator 4 weeks ago

README.md

Johdanto datan etiikkaan

 Sketchnote by (@sketchthedocs)
Datan etiikka - Sketchnote by @nitya

Elämme kaikki datan kansalaisina datavetoisessa maailmassa.

Markkinatrendit osoittavat, että vuoteen 2022 mennessä yksi kolmesta suuresta organisaatiosta ostaa ja myy dataansa verkossa markkinapaikkojen ja vaihtojen kautta. Sovelluskehittäjinä meidän on helpompaa ja edullisempaa integroida dataan perustuvia oivalluksia ja algoritmipohjaista automaatiota päivittäisiin käyttäjäkokemuksiin. Mutta kun tekoälystä tulee yhä yleisempää, meidän on myös ymmärrettävä, millaisia haittoja tällaisilla algoritmeilla voi olla, kun niitä käytetään aseistettuna laajassa mittakaavassa.

Trendit osoittavat myös, että vuoteen 2025 mennessä luomme ja kulutamme yli 180 zettatavua dataa. Data-analyytikkoina tämä antaa meille ennennäkemättömän pääsyn henkilökohtaisiin tietoihin. Tämä tarkoittaa, että voimme rakentaa käyttäjien käyttäytymisprofiileja ja vaikuttaa päätöksentekoon tavoilla, jotka luovat illuusion vapaasta valinnasta, samalla kun saatamme ohjata käyttäjiä kohti meille mieluisia lopputuloksia. Tämä herättää myös laajempia kysymyksiä tietosuojasta ja käyttäjien suojelusta.

Datan etiikka toimii nyt välttämättöminä suojakaiteina data-analytiikassa ja -insinöörityössä, auttaen minimoimaan mahdollisia haittoja ja tahattomia seurauksia datavetoisista toimistamme. Gartnerin Hype Cycle tekoälylle tunnistaa digietiikan, vastuullisen tekoälyn ja tekoälyn hallinnan keskeisiksi trendeiksi, jotka ohjaavat suurempia megatrendejä, kuten tekoälyn demokratisointia ja teollistamista.

Gartnerin Hype Cycle tekoälylle - 2020

Tässä oppitunnissa tutkimme kiehtovaa datan etiikan aluetta - ydinkäsitteistä ja haasteista tapaustutkimuksiin ja soveltaviin tekoälykonsepteihin, kuten hallintoon, jotka auttavat luomaan eettisen kulttuurin tiimeissä ja organisaatioissa, jotka työskentelevät datan ja tekoälyn parissa.

Esiluentovisa 🎯

Perusmääritelmät

Aloitetaan ymmärtämällä peruskäsitteitä.

Sana "etiikka" tulee kreikan sanasta "ethikos" (ja sen juuresta "ethos"), joka tarkoittaa luonnetta tai moraalista olemusta.

Etiikka käsittelee yhteisiä arvoja ja moraalisia periaatteita, jotka ohjaavat käyttäytymistämme yhteiskunnassa. Etiikka ei perustu lakeihin, vaan yleisesti hyväksyttyihin normeihin siitä, mikä on "oikein vs. väärin". Kuitenkin eettiset näkökohdat voivat vaikuttaa yritysten hallintokäytäntöihin ja hallituksen säädöksiin, jotka luovat enemmän kannustimia noudattamiseen.

Datan etiikka on uusi etiikan haara, joka "tutkii ja arvioi moraalisia ongelmia, jotka liittyvät dataan, algoritmeihin ja vastaaviin käytäntöihin". Tässä "data" keskittyy toimiin, jotka liittyvät datan luomiseen, tallentamiseen, kuratointiin, käsittelyyn, levittämiseen, jakamiseen ja käyttöön, "algoritmit" keskittyvät tekoälyyn, agenteihin, koneoppimiseen ja robotteihin, ja "käytännöt" keskittyvät aiheisiin, kuten vastuulliseen innovointiin, ohjelmointiin, hakkerointiin ja eettisiin koodeihin.

Soveltava etiikka on moraalisten näkökohtien käytännön soveltamista. Se on prosessi, jossa aktiivisesti tutkitaan eettisiä kysymyksiä todellisen maailman toimien, tuotteiden ja prosessien yhteydessä ja toteutetaan korjaavia toimenpiteitä, jotta nämä pysyvät määriteltyjen eettisten arvojen mukaisina.

Eettinen kulttuuri tarkoittaa soveltavan etiikan operationalisointia varmistaakseen, että eettiset periaatteemme ja käytäntömme otetaan käyttöön johdonmukaisesti ja skaalautuvasti koko organisaatiossa. Onnistuneet eettiset kulttuurit määrittelevät organisaation laajuiset eettiset periaatteet, tarjoavat merkityksellisiä kannustimia noudattamiseen ja vahvistavat eettisiä normeja rohkaisemalla ja vahvistamalla toivottuja käyttäytymismalleja organisaation kaikilla tasoilla.

Etiikan käsitteet

Tässä osiossa käsittelemme käsitteitä, kuten yhteiset arvot (periaatteet) ja eettiset haasteet (ongelmat) datan etiikassa - ja tutkimme tapaustutkimuksia, jotka auttavat ymmärtämään näitä käsitteitä todellisissa yhteyksissä.

1. Etiikan periaatteet

Jokainen datan etiikkastrategia alkaa määrittelemällä eettiset periaatteet - "yhteiset arvot", jotka kuvaavat hyväksyttäviä käyttäytymismalleja ja ohjaavat sääntöjenmukaisia toimia data- ja tekoälyprojekteissamme. Voit määritellä nämä yksilö- tai tiimitasolla. Useimmat suuret organisaatiot kuitenkin määrittelevät nämä eettisen tekoälyn missiolausekkeessa tai viitekehyksessä, joka on määritelty yritystasolla ja jota sovelletaan johdonmukaisesti kaikissa tiimeissä.

Esimerkki: Microsoftin Vastuullisen tekoälyn missiolauseke kuuluu: "Olemme sitoutuneet tekoälyn kehittämiseen eettisten periaatteiden pohjalta, jotka asettavat ihmiset etusijalle" - ja se tunnistaa kuusi eettistä periaatetta alla olevassa viitekehyksessä:

Vastuullinen tekoäly Microsoftilla

Tutkitaan lyhyesti näitä periaatteita. Läpinäkyvyys ja vastuullisuus ovat perustavanlaatuisia arvoja, joiden päälle muut periaatteet rakentuvat - aloitetaan siis niistä:

  • Vastuullisuus tekee käytännön toteuttajista vastuullisia data- ja tekoälytoiminnastaan sekä näiden eettisten periaatteiden noudattamisesta.
  • Läpinäkyvyys varmistaa, että data- ja tekoälytoimet ovat ymmärrettäviä käyttäjille, selittäen päätösten taustalla olevat syyt ja perusteet.
  • Reiluus keskittyy varmistamaan, että tekoäly kohtelee kaikkia ihmisiä oikeudenmukaisesti, puuttuen mahdollisiin järjestelmällisiin tai piileviin sosio-teknisiin vinoumiin datassa ja järjestelmissä.
  • Luotettavuus ja turvallisuus varmistavat, että tekoäly toimii johdonmukaisesti määriteltyjen arvojen mukaisesti, minimoiden mahdolliset haitat tai tahattomat seuraukset.
  • Yksityisyys ja turvallisuus liittyvät datan alkuperän ymmärtämiseen ja käyttäjille tarjottaviin tietosuoja- ja turvallisuustoimiin.
  • Osallistavuus tarkoittaa tekoälyratkaisujen suunnittelua tarkoituksella, mukauttaen niitä vastaamaan laajaa valikoimaa inhimillisiä tarpeita ja kykyjä.

🚨 Mieti, millainen datan etiikan missiolauseesi voisi olla. Tutki muiden organisaatioiden eettisiä tekoälyviitekehyksiä - tässä esimerkkejä IBM:ltä, Googlelta ja Facebookilta. Mitä yhteisiä arvoja niillä on? Miten nämä periaatteet liittyvät tekoälytuotteeseen tai toimialaan, jolla ne toimivat?

2. Etiikan haasteet

Kun eettiset periaatteet on määritelty, seuraava askel on arvioida data- ja tekoälytoimiamme nähdäksemme, ovatko ne linjassa näiden yhteisten arvojen kanssa. Mieti toimiasi kahdessa kategoriassa: datan kerääminen ja algoritmien suunnittelu.

Datan keräämisessä toimet liittyvät todennäköisesti henkilökohtaisiin tietoihin tai henkilön tunnistaviin tietoihin (PII), jotka koskevat tunnistettavissa olevia eläviä yksilöitä. Tämä sisältää monenlaisia ei-henkilökohtaisia tietoja, jotka yhdessä voivat tunnistaa yksilön. Eettiset haasteet voivat liittyä tietosuojaan, datan omistajuuteen ja aiheisiin, kuten tietoiseen suostumukseen ja henkisiin omaisuusoikeuksiin.

Algoritmien suunnittelussa toimet liittyvät datan keräämiseen ja kuratointiin, ja niiden käyttämiseen datamallien kouluttamiseen ja käyttöönottoon, jotka ennustavat tuloksia tai automatisoivat päätöksiä todellisissa konteksteissa. Eettisiä haasteita voivat olla datan vinoumat, datan laatuongelmat, epäreiluus ja vääristely algoritmeissa - mukaan lukien joitakin järjestelmällisiä ongelmia.

Molemmissa tapauksissa eettiset haasteet korostavat alueita, joissa toimintamme saattaa olla ristiriidassa yhteisten arvojemme kanssa. Näiden huolenaiheiden havaitsemiseksi, lieventämiseksi, minimoimiseksi tai poistamiseksi meidän on esitettävä moraalisia "kyllä/ei"-kysymyksiä toimistamme ja toteutettava tarvittavat korjaavat toimenpiteet. Katsotaanpa joitakin eettisiä haasteita ja niihin liittyviä moraalisia kysymyksiä:

2.1 Datan omistajuus

Datan kerääminen sisältää usein henkilökohtaisia tietoja, jotka voivat tunnistaa datan kohteet. Datan omistajuus koskee kontrollia ja käyttäjän oikeuksia, jotka liittyvät datan luomiseen, käsittelyyn ja levittämiseen.

Moraaliset kysymykset, joita meidän on esitettävä:

  • Kuka omistaa datan? (käyttäjä vai organisaatio)
  • Mitä oikeuksia datan kohteilla on? (esim. pääsy, poistaminen, siirrettävyys)
  • Mitä oikeuksia organisaatioilla on? (esim. haitallisten käyttäjäarvioiden oikaiseminen)

2.2 Tietoinen suostumus

Tietoinen suostumus tarkoittaa käyttäjän suostumusta toimintaan (kuten datan keräämiseen) täydellä ymmärryksellä asiaankuuluvista faktoista, mukaan lukien tarkoitus, mahdolliset riskit ja vaihtoehdot.

Kysymyksiä, joita on tutkittava:

  • Antoiko käyttäjä (datan kohde) luvan datan keräämiseen ja käyttöön?
  • Ymmärsikö käyttäjä, mihin tarkoitukseen data kerättiin?
  • Ymmärsikö käyttäjä osallistumisensa mahdolliset riskit?

2.3 Henkinen omaisuus

Henkinen omaisuus viittaa aineettomiin luomuksiin, jotka ovat ihmisen aloitteellisuuden tulosta ja joilla voi olla taloudellista arvoa yksilöille tai yrityksille.

Kysymyksiä, joita on tutkittava:

  • Sisältääkö kerätty data taloudellista arvoa käyttäjälle tai yritykselle?
  • Onko käyttäjällä henkistä omaisuutta tässä?
  • Onko organisaatiolla henkistä omaisuutta tässä?
  • Jos nämä oikeudet ovat olemassa, miten suojelemme niitä?

2.4 Tietosuoja

Tietosuoja tai informaation yksityisyys viittaa käyttäjän yksityisyyden säilyttämiseen ja käyttäjän identiteetin suojaamiseen henkilön tunnistavien tietojen osalta.

Kysymyksiä, joita on tutkittava:

  • Onko käyttäjien (henkilökohtainen) data suojattu hakkereilta ja tietovuodoilta?
  • Onko käyttäjien data saatavilla vain valtuutetuille käyttäjille ja konteksteille?
  • Säilytetäänkö käyttäjien anonymiteetti, kun dataa jaetaan tai levitetään?
  • Voidaanko käyttäjä tunnistaa anonymisoiduista datasetistä?

2.5 Oikeus tulla unohdetuksi

Oikeus tulla unohdetuksi tai oikeus tietojen poistamiseen tarjoaa käyttäjille lisäsuojaa henkilökohtaisille tiedoille. Se antaa käyttäjille oikeuden pyytää henkilökohtaisten tietojen poistamista Internet-hauista ja muista sijainneista tietyissä olosuhteissa, mahdollistaen uuden alun ilman, että menneitä toimia pidetään heitä vastaan.

Kysymyksiä, joita on tutkittava:

  • Salliko järjestelmä datan kohteiden pyytää tietojen poistamista?
  • Pitäisikö käyttäjän suostumuksen peruuttamisen laukaista automaattinen tietojen poisto?
  • Kerättiinkö data ilman suostumusta tai laittomin keinoin?
  • Olemmeko tietosuojalainsäädännön mukaisia?

2.6 Datasetin vinouma

Datasetin tai keräysvinouman ongelma liittyy epäedustavan datan alijoukon valintaan algoritmien kehittämiseen, mikä voi johtaa epäoikeudenmukaisiin tuloksiin eri ryhmille. Vinoumat voivat olla esimerkiksi valinta- tai otantavinoumia, vapaaehtoisuusvinoumia tai instrumenttivinoumia.

Kysymyksiä, joita on tutkittava:

  • Rekrytoimmeko edustavan joukon datan kohteita?
  • Testasimmeko kerättyä tai kuratoitua datasettiä eri vinoumien osalta?
  • Voimmeko lieventää tai poistaa havaittuja vinoumia?

2.7 Datan laatu

Datan laatu tarkastelee kuratoidun datasetin pätevyy Algoritmien oikeudenmukaisuus tarkastelee, syrjiikö algoritmin suunnittelu systemaattisesti tiettyjä tietoryhmien alaryhmiä, mikä voi johtaa mahdollisiin haittoihin resurssien jakamisessa (kun resursseja evätään tai pidätetään kyseiseltä ryhmältä) ja palvelun laadussa (kun tekoäly ei ole yhtä tarkka joillekin alaryhmille kuin toisille).

Tässä pohdittavia kysymyksiä:

  • Arvioimmeko mallin tarkkuutta eri alaryhmien ja olosuhteiden osalta?
  • Tarkastelimmeko järjestelmää mahdollisten haittojen (esim. stereotypioiden) varalta?
  • Voimmeko muokata dataa tai kouluttaa malleja uudelleen haittojen lieventämiseksi?

Tutustu resursseihin, kuten tekoälyn oikeudenmukaisuuden tarkistuslistoihin, saadaksesi lisätietoa.

2.9 Vääristely

Datavääristely tarkoittaa sitä, että kysytään, viestimmekö rehellisesti raportoituja tietoja harhaanjohtavalla tavalla tukemaan haluttua narratiivia.

Tässä pohdittavia kysymyksiä:

  • Raportoimmeko puutteellisia tai epätarkkoja tietoja?
  • Visualisoimmeko dataa tavalla, joka johtaa harhaanjohtaviin johtopäätöksiin?
  • Käytämmekö valikoivia tilastollisia menetelmiä manipuloidaksemme tuloksia?
  • Onko olemassa vaihtoehtoisia selityksiä, jotka voivat tarjota erilaisen johtopäätöksen?

2.10 Vapaa valinta

Vapaan valinnan illuusio syntyy, kun järjestelmän "valinta-arkkitehtuurit" käyttävät päätöksentekoalgoritmeja ohjaamaan ihmisiä kohti haluttua lopputulosta samalla, kun heille annetaan vaikutelma vaihtoehdoista ja hallinnasta. Nämä pimeät mallit voivat aiheuttaa sosiaalisia ja taloudellisia haittoja käyttäjille. Koska käyttäjien päätökset vaikuttavat käyttäytymisprofiileihin, nämä toimet voivat mahdollisesti ohjata tulevia valintoja ja laajentaa haittojen vaikutusta.

Tässä pohdittavia kysymyksiä:

  • Ymmärsikö käyttäjä valinnan tekemisen seuraukset?
  • Oliko käyttäjä tietoinen (vaihtoehtoisista) valinnoista ja niiden eduista ja haitoista?
  • Voiko käyttäjä peruuttaa automatisoidun tai vaikutetun valinnan myöhemmin?

3. Tapaustutkimukset

Jotta voimme asettaa nämä eettiset haasteet todellisiin konteksteihin, on hyödyllistä tarkastella tapaustutkimuksia, jotka korostavat mahdollisia haittoja ja seurauksia yksilöille ja yhteiskunnalle, kun tällaisia eettisiä rikkomuksia ei huomioida.

Tässä muutamia esimerkkejä:

Eettinen haaste Tapaustutkimus
Tietoinen suostumus 1972 - Tuskegeen kuppatutkimus - Afrikkalaisamerikkalaisille miehille luvattiin ilmaista terveydenhoitoa, mutta heitä huijattiin jättämällä kertomatta heidän diagnoosistaan tai hoidon saatavuudesta. Monet kuolivat, ja heidän kumppaninsa tai lapsensa kärsivät; tutkimus kesti 40 vuotta.
Tietosuoja 2007 - Netflixin datakilpailu tarjosi tutkijoille 10 miljoonaa anonymisoitua elokuva-arvostelua 50 000 asiakkaalta suositusalgoritmien parantamiseksi. Tutkijat pystyivät kuitenkin yhdistämään anonymisoidut tiedot henkilökohtaisesti tunnistettaviin tietoihin ulkopuolisista tietokannoista (esim. IMDb-kommenteista) - käytännössä "de-anonymisoiden" joitakin Netflixin tilaajia.
Keräysbias 2013 - Bostonin kaupunki kehitti Street Bump -sovelluksen, joka antoi kansalaisille mahdollisuuden raportoida kuoppia, tarjoten kaupungille parempaa tietoa teiden kunnosta. Kuitenkin alempituloisilla ryhmillä oli vähemmän pääsyä autoihin ja puhelimiin, mikä teki heidän tieongelmistaan näkymättömiä sovelluksessa. Kehittäjät työskentelivät akateemikkojen kanssa tasapuolisen pääsyn ja digitaalisten erojen kysymysten ratkaisemiseksi.
Algoritmien oikeudenmukaisuus 2018 - MIT:n Gender Shades -tutkimus arvioi sukupuolen luokitteluun tarkoitettujen tekoälytuotteiden tarkkuutta, paljastaen tarkkuuspuutteita naisten ja värillisten henkilöiden kohdalla. Vuoden 2019 Apple Card näytti tarjoavan vähemmän luottoa naisille kuin miehille. Molemmat osoittivat algoritmisen biasin aiheuttamia sosioekonomisia haittoja.
Datavääristely 2020 - Georgian terveysosasto julkaisi COVID-19-kaavioita, jotka näyttivät harhaanjohtavan kansalaisia tapausten kehityksestä käyttämällä epäjärjestelmällistä x-akselin järjestystä. Tämä havainnollistaa vääristelyä visualisointikikkojen avulla.
Vapaan valinnan illuusio 2020 - Oppimissovellus ABCmouse maksoi 10 miljoonaa dollaria ratkaistakseen FTC:n valituksen, jossa vanhemmat joutuivat maksamaan tilauksista, joita he eivät voineet peruuttaa. Tämä havainnollistaa pimeitä malleja valinta-arkkitehtuureissa, joissa käyttäjiä ohjattiin mahdollisesti haitallisiin valintoihin.
Tietosuoja ja käyttäjien oikeudet 2021 - Facebookin tietovuoto paljasti 530 miljoonan käyttäjän tiedot, mikä johti 5 miljardin dollarin sovintoon FTC:n kanssa. Se kuitenkin kieltäytyi ilmoittamasta käyttäjille tietovuodosta, mikä rikkoi käyttäjien oikeuksia tiedon läpinäkyvyyteen ja saatavuuteen.

Haluatko tutkia lisää tapaustutkimuksia? Tutustu näihin resursseihin:

🚨 Mieti näkemäsi tapaustutkimuksia - oletko kokenut tai joutunut vastaavan eettisen haasteen vaikutuksen alaiseksi elämässäsi? Voitko keksiä ainakin yhden muun tapaustutkimuksen, joka havainnollistaa jotakin tässä osiossa käsitellyistä eettisistä haasteista?

Soveltava etiikka

Olemme puhuneet etiikan käsitteistä, haasteista ja tapaustutkimuksista todellisissa konteksteissa. Mutta miten pääsemme alkuun soveltamaan eettisiä periaatteita ja käytäntöjä projekteissamme? Ja miten toiminnallistamme nämä käytännöt paremman hallinnan saavuttamiseksi? Tutkitaan joitakin todellisia ratkaisuja:

1. Ammatilliset säännöstöt

Ammatilliset säännöstöt tarjoavat yhden vaihtoehdon organisaatioille "kannustaa" jäseniään tukemaan eettisiä periaatteitaan ja missiotaan. Säännöstöt ovat moraalisia ohjenuoria ammatilliselle käyttäytymiselle, jotka auttavat työntekijöitä tai jäseniä tekemään päätöksiä, jotka ovat linjassa organisaation periaatteiden kanssa. Niiden tehokkuus riippuu kuitenkin jäsenten vapaaehtoisesta noudattamisesta; monet organisaatiot tarjoavat lisäpalkkioita ja -rangaistuksia kannustaakseen noudattamista.

Esimerkkejä:

🚨 Kuulutko ammatilliseen insinööri- tai datatiedeorganisaatioon? Tutki heidän verkkosivustoaan nähdäksesi, määrittelevätkö he ammatillisen eettisen säännöstön. Mitä tämä kertoo heidän eettisistä periaatteistaan? Miten he "kannustavat" jäseniä noudattamaan säännöstöä?

2. Etiikan tarkistuslistat

Vaikka ammatilliset säännöstöt määrittelevät vaaditun eettisen käyttäytymisen ammattilaisilta, niillä on tunnettuja rajoituksia täytäntöönpanossa, erityisesti suurissa projekteissa. Sen sijaan monet datatieteen asiantuntijat suosittelevat tarkistuslistoja, jotka voivat yhdistää periaatteet käytäntöihin määrätietoisemmilla ja toimivammilla tavoilla.

Tarkistuslistat muuttavat kysymykset "kyllä/ei"-tehtäviksi, joita voidaan toiminnallistaa ja seurata osana tavanomaisia tuotteen julkaisutyönkulkuja.

Esimerkkejä:

3. Etiikan sääntely

Etiikka tarkoittaa yhteisten arvojen määrittelyä ja oikean tekemistä vapaaehtoisesti. Sääntöjen noudattaminen tarkoittaa lain noudattamista, jos ja kun sellainen on määritelty. Hallinto kattaa laajemmin kaikki tavat, joilla organisaatiot toimivat eettisten periaatteiden täytäntöönpanemiseksi ja voimassa olevien lakien noudattamiseksi.

Nykyään hallinto ilmenee organisaatioissa kahdella tavalla. Ensinnäkin se tarkoittaa eettisen tekoälyn periaatteiden määrittelyä ja käytäntöjen luomista niiden käyttöönoton toiminnallistamiseksi kaikissa organisaation tekoälyprojekteissa. Toiseksi se tarkoittaa kaikkien hallituksen määräämien tietosuojasäädösten noudattamista niillä alueilla, joilla organisaatio toimii.

Esimerkkejä tietosuoja- ja yksityisyydensuojalainsäädännöstä:

🚨 Euroopan unionin määrittelemä GDPR (yleinen tietosuoja-asetus) on edelleen yksi vaikutusvaltaisimmista tietosuojasäädöksistä. Tiesitkö, että se määrittelee myös 8 käyttäjäoikeutta digitaalisen yksityisyyden ja henkilötietojen suojaamiseksi? Opi, mitä nämä ovat ja miksi ne ovat tärkeitä.

4. Etiikkakulttuuri

Huomaa, että sääntöjen noudattamisen (lain kirjaimen täyttämisen) ja systeemisten ongelmien (kuten jäykkyyden, tiedon epäsymmetrian ja jakautuvan epäoikeudenmukaisuuden) ratkaisemisen välillä on edelleen aineeton kuilu, joka voi nopeuttaa tekoälyn aseistamista.

Jälkimmäinen vaatii yhteistyöhön perustuvia lähestymistapoja etiikkakulttuurien määrittelyyn, jotka rakentavat emotionaalisia yhteyksiä ja johdonmukaisia yhteisiä arvoja organisaatioiden välillä alalla. Tämä edellyttää enemmän muodollistettuja dataetiikkakulttuureja organisaatioissa - mahdollistaen kenelle tahansa vetää Andon-narusta (nostaa esiin eettisiä huolenaiheita prosessin alkuvaiheessa) ja tehdä eettisiä arviointeja (esim. rekrytoinnissa) tekoälyprojektien tiimien muodostamisen keskeisenä kriteerinä.


Luentojälkeinen kysely 🎯

Kertaus ja

Tehtävä

Kirjoita tapaustutkimus datan etiikasta


Vastuuvapauslauseke:
Tämä asiakirja on käännetty käyttämällä tekoälypohjaista käännöspalvelua Co-op Translator. Vaikka pyrimme tarkkuuteen, huomioithan, että automaattiset käännökset voivat sisältää virheitä tai epätarkkuuksia. Alkuperäistä asiakirjaa sen alkuperäisellä kielellä tulee pitää ensisijaisena lähteenä. Kriittisen tiedon osalta suositellaan ammattimaista ihmisen tekemää käännöstä. Emme ole vastuussa väärinkäsityksistä tai virhetulkinnoista, jotka johtuvat tämän käännöksen käytöstä.