You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/sr/1-Introduction/02-ethics
leestott 7373a19c39
🌐 Update translations via Co-op Translator
2 weeks ago
..
README.md 🌐 Update translations via Co-op Translator 2 weeks ago
assignment.md 🌐 Update translations via Co-op Translator 3 weeks ago

README.md

Увод у етику података

 Скетч од (@sketchthedocs)
Етика у науци о подацима - Скетч од @nitya

Сви смо ми грађани података који живе у свету заснованом на подацима.

Трендови на тржишту показују да ће до 2022. године једна од три велике организације куповати и продавати своје податке преко онлајн тржишта и берзи. Као развијачи апликација, лакше и јефтиније ћемо интегрисати увиде засноване на подацима и аутоматизацију засновану на алгоритмима у свакодневна корисничка искуства. Али како вештачка интелигенција постаје све присутнија, мораћемо да разумемо потенцијалне штете које могу настати употребом таквих алгоритама у великом обиму.

Трендови такође указују да ћемо до 2025. године креирати и конзумирати преко 180 зетабајта података. Као научници о подацима, имаћемо невиђен ниво приступа личним подацима. То значи да можемо градити профиле понашања корисника и утицати на доношење одлука на начине који стварају илузију слободног избора, док потенцијално усмеравамо кориснике ка исходима који нам одговарају. Ово такође поставља шира питања о приватности података и заштити корисника.

Етика података сада представља неопходне заштитне мере за науку о подацима и инжењеринг, помажући нам да минимизирамо потенцијалне штете и нежељене последице наших акција заснованих на подацима. Гартнеров циклус хипа за вештачку интелигенцију идентификује релевантне трендове у дигиталној етици, одговорној вештачкој интелигенцији и управљању вештачком интелигенцијом као кључне покретаче већих мегатрендова око демократизације и индустријализације вештачке интелигенције.

Гартнеров циклус хипа за вештачку интелигенцију - 2020

У овом часу истражићемо фасцинантну област етике података - од основних концепата и изазова, до студија случаја и примењених концепата вештачке интелигенције као што је управљање - који помажу у успостављању културе етике у тимовима и организацијама које раде са подацима и вештачком интелигенцијом.

Квиз пре предавања 🎯

Основне дефиниције

Почнимо са разумевањем основне терминологије.

Реч "етика" потиче од грчке речи "ethikos" (и њеног корена "ethos") која значи карактер или морална природа.

Етика се односи на заједничке вредности и моралне принципе који управљају нашим понашањем у друштву. Етика се не заснива на законима, већ на широко прихваћеним нормама о томе шта је "исправно наспрам погрешног". Међутим, етичка разматрања могу утицати на иницијативе корпоративног управљања и владине регулативе које стварају више подстицаја за усаглашеност.

Етика података је нова грана етике која "проучава и процењује моралне проблеме повезане са подацима, алгоритмима и одговарајућим праксама". Овде, "подаци" се фокусирају на акције повезане са генерисањем, снимањем, курирањем, обрадом, ширењем, дељењем и употребом, "алгоритми" се фокусирају на вештачку интелигенцију, агенте, машинско учење и роботе, а "праксе" се фокусирају на теме као што су одговорне иновације, програмирање, хаковање и кодекси етике.

Примењена етика је практична примена моралних разматрања. То је процес активног истраживања етичких питања у контексту акција, производа и процеса у стварном свету, и предузимање корективних мера како би се осигурало да они остану усклађени са нашим дефинисаним етичким вредностима.

Култура етике се односи на операционализацију примењене етике како би се осигурало да наши етички принципи и праксе буду усвојени на доследан и скалабилан начин широм целе организације. Успешне културе етике дефинишу етичке принципе на нивоу организације, пружају значајне подстицаје за усаглашеност и јачају норме етике охрабрујући и појачавајући жељена понашања на свим нивоима организације.

Концепти етике

У овом одељку ћемо разговарати о концептима као што су заједничке вредности (принципи) и етички изазови (проблеми) за етику података - и истражити студије случаја које вам помажу да разумете ове концепте у контекстима стварног света.

1. Принципи етике

Свака стратегија етике података почиње дефинисањем етичких принципа - "заједничких вредности" које описују прихватљива понашања и воде усаглашене акције у нашим пројектима података и вештачке интелигенције. Можете их дефинисати на индивидуалном или тимском нивоу. Међутим, већина великих организација их наводи у мисији етичке вештачке интелигенције или оквиру који је дефинисан на корпоративном нивоу и доследно спроведен у свим тимовима.

Пример: Мисија Одговорне вештачке интелигенције компаније Microsoft гласи: "Посвећени смо напретку вештачке интелигенције вођене етичким принципима који стављају људе на прво место" - идентификујући 6 етичких принципа у оквиру испод:

Одговорна вештачка интелигенција у Microsoft-у

Хајде да укратко истражимо ове принципе. Транспарентност и одговорност су основне вредности на којима се граде остали принципи - па почнимо од њих:

  • Одговорност чини практичаре одговорним за њихове операције са подацима и вештачком интелигенцијом, као и за усаглашеност са овим етичким принципима.
  • Транспарентност осигурава да су акције са подацима и вештачком интелигенцијом разумљиве (интерпретабилне) корисницима, објашњавајући шта и зашто стоји иза одлука.
  • Праведност - фокусира се на осигурање да вештачка интелигенција третира све људе праведно, решавајући било какве системске или имплицитне социо-техничке пристрасности у подацима и системима.
  • Поузданост и безбедност - осигурава да се вештачка интелигенција понаша доследно са дефинисаним вредностима, минимизирајући потенцијалне штете или нежељене последице.
  • Приватност и безбедност - односи се на разумевање порекла података и пружање заштите приватности података корисницима.
  • Инклузивност - односи се на дизајнирање решења вештачке интелигенције са намером, прилагођавајући их да задовоље широк спектар људских потреба и способности.

🚨 Размислите о томе шта би могла бити ваша мисија етике података. Истражите оквире етичке вештачке интелигенције других организација - овде су примери из IBM, Google, и Facebook. Које заједничке вредности имају? Како се ови принципи односе на производе или индустрију вештачке интелигенције у којој делују?

2. Етички изазови

Када дефинишемо етичке принципе, следећи корак је процена наших акција са подацима и вештачком интелигенцијом како бисмо видели да ли су у складу са тим заједничким вредностима. Размислите о својим акцијама у две категорије: прикупљање података и дизајн алгоритама.

Код прикупљања података, акције ће вероватно укључивати личне податке или информације које могу идентификовати живе индивидуе. Ово укључује разноврсне ставке неперсоналних података које заједно идентификују појединца. Етички изазови могу се односити на приватност података, власништво над подацима и сродне теме као што су информисани пристанак и права интелектуалне својине корисника.

Код дизајна алгоритама, акције ће укључивати прикупљање и курирање скупова података, а затим њихово коришћење за тренирање и примену модела података који предвиђају исходе или аутоматизују одлуке у стварним контекстима. Етички изазови могу настати из пристраности у скупу података, проблема са квалитетом података, неправедности и погрешног представљања у алгоритмима - укључујући неке проблеме који су системске природе.

У оба случаја, етички изазови истичу области где наше акције могу бити у сукобу са нашим заједничким вредностима. Да бисмо открили, ублажили, минимизирали или елиминисали ове проблеме, морамо постављати морална "да/не" питања у вези са нашим акцијама, а затим предузимати корективне мере по потреби. Хајде да погледамо неке етичке изазове и морална питања која они постављају:

2.1 Власништво над подацима

Прикупљање података често укључује личне податке који могу идентификовати субјекте података. Власништво над подацима се односи на контролу и права корисника у вези са креирањем, обрадом и ширењем података.

Морална питања која треба поставити су:

  • Ко поседује податке? (корисник или организација)
  • Која права имају субјекти података? (нпр. приступ, брисање, преносивост)
  • Која права имају организације? (нпр. исправљање злонамерних корисничких рецензија)

2.2 Информисани пристанак

Информисани пристанак дефинише чин корисника који пристају на акцију (као што је прикупљање података) са потпуним разумевањем релевантних чињеница, укључујући сврху, потенцијалне ризике и алтернативе.

Питања за истраживање овде су:

  • Да ли је корисник (субјект података) дао дозволу за прикупљање и употребу података?
  • Да ли је корисник разумео сврху за коју су ти подаци прикупљени?
  • Да ли је корисник разумео потенцијалне ризике од свог учешћа?

2.3 Интелектуална својина

Интелектуална својина се односи на нематеријалне креације које су резултат људске иницијативе, а које могу имати економску вредност за појединце или предузећа.

Питања за истраживање овде су:

  • Да ли прикупљени подаци имају економску вредност за корисника или предузеће?
  • Да ли корисник има интелектуалну својину овде?
  • Да ли организација има интелектуалну својину овде?
  • Ако ова права постоје, како их штитимо?

2.4 Приватност података

Приватност података или информациона приватност односи се на очување приватности корисника и заштиту идентитета корисника у вези са лично идентификујућим информацијама.

Питања за истраживање овде су:

  • Да ли су кориснички (лични) подаци заштићени од хаковања и цурења?
  • Да ли су кориснички подаци доступни само овлашћеним корисницима и контекстима?
  • Да ли је анонимност корисника очувана када се подаци деле или шире?
  • Може ли корисник бити деидентификован из анонимизованих скупова података?

2.5 Право на заборав

[Право на заборав](https Algorithm Fairness проверава да ли је дизајн алгоритма систематски дискриминаторски према одређеним подгрупама субјеката података, што доводи до потенцијалних штета у расподели (где се ресурси ускраћују или одбијају тој групи) и квалитету услуге (где вештачка интелигенција није толико прецизна за неке подгрупе као за друге).

Питања за истраживање:

  • Да ли смо проценили тачност модела за различите подгрупе и услове?
  • Да ли смо детаљно испитали систем због потенцијалних штета (нпр. стереотипизација)?
  • Можемо ли ревидирати податке или поново обучити моделе како бисмо ублажили идентификоване штете?

Истражите ресурсе као што су AI Fairness checklists за више информација.

2.9 Погрешно представљање

Погрешно представљање података подразумева питање да ли комуницирамо увиде из искрено пријављених података на обмањујући начин како бисмо подржали жељени наратив.

Питања за истраживање:

  • Да ли пријављујемо непотпуне или нетачне податке?
  • Да ли визуализујемо податке на начин који води до погрешних закључака?
  • Да ли користимо селективне статистичке технике за манипулацију резултатима?
  • Да ли постоје алтернативна објашњења која могу понудити другачији закључак?

2.10 Слободан избор

Илузија слободног избора се јавља када системске "архитектуре избора" користе алгоритме за доношење одлука како би усмериле људе ка жељеном исходу, док им истовремено дају привид опција и контроле. Ови мрачни обрасци могу изазвати социјалну и економску штету корисницима. Пошто одлуке корисника утичу на профиле понашања, ове акције потенцијално покрећу будуће изборе који могу појачати или продужити утицај ових штета.

Питања за истраживање:

  • Да ли је корисник разумео импликације доношења тог избора?
  • Да ли је корисник био свестан (алтернативних) избора и предности и недостатака сваког?
  • Може ли корисник касније поништити аутоматизован или утицајем изазван избор?

3. Студије случаја

Да бисмо поставили ове етичке изазове у контекст стварног света, корисно је погледати студије случаја које истичу потенцијалне штете и последице за појединце и друштво када се занемарују кршења етике.

Ево неколико примера:

Етички изазов Студија случаја
Информисани пристанак 1972 - Tuskegee Syphilis Study - Афроамериканци који су учествовали у студији обећана је бесплатна медицинска нега, али су истраживачи обманули учеснике, не обавестивши их о дијагнози или доступности лечења. Многи учесници су умрли, а партнери или деца су били погођени; студија је трајала 40 година.
Приватност података 2007 - Netflix data prize је истраживачима пружио 10 милиона анонимних оцена филмова од 50 хиљада корисника како би побољшали алгоритме препорука. Међутим, истраживачи су успели да повежу анонимне податке са лично идентификационим подацима у спољним скуповима података (нпр. IMDb коментари), ефективно "деанонимизујући" неке Netflix претплатнике.
Прикупљање пристрасних података 2013 - Град Бостон развио Street Bump, апликацију која је омогућила грађанима да пријаве рупе на путу, пружајући граду боље податке о путевима за проналажење и поправку проблема. Међутим, људи из група са нижим приходима имали су мањи приступ аутомобилима и телефонима, чинећи њихове проблеме на путевима невидљивим у овој апликацији. Развијачи су сарађивали са академицима на решавању питања праведног приступа и дигиталних подела.
Праведност алгоритма 2018 - MIT Gender Shades Study је проценио тачност AI производа за класификацију пола, откривајући недостатке у тачности за жене и особе у боји. Apple Card из 2019 је изгледа нудио мање кредита женама него мушкарцима. Оба случаја илуструју проблеме пристрасности алгоритма који доводе до социо-економских штета.
Погрешно представљање података 2020 - Грузијски одсек за јавно здравље објавио је графиконе о COVID-19 који су изгледали као да обмањују грађане о трендовима у потврђеним случајевима са нехронолошким редоследом на x-оси. Ово илуструје погрешно представљање кроз трикове визуализације.
Илузија слободног избора 2020 - Апликација за учење ABCmouse платила је $10M за решавање жалбе FTC-а где су родитељи били приморани да плаћају претплате које нису могли да откажу. Ово илуструје мрачне обрасце у архитектури избора, где су корисници били усмерени ка потенцијално штетним изборима.
Приватност података и права корисника 2021 - Facebook Data Breach је открио податке 530 милиона корисника, што је резултирало нагодбом од $5 милијарди са FTC-ом. Међутим, Facebook је одбио да обавести кориснике о кршењу, кршећи права корисника у вези са транспарентношћу и приступом подацима.

Желите да истражите више студија случаја? Погледајте ове ресурсе:

🚨 Размислите о студијама случаја које сте видели - да ли сте доживели или били погођени сличним етичким изазовом у свом животу? Можете ли се сетити барем једне друге студије случаја која илуструје један од етичких изазова које смо овде разматрали?

Примењена етика

Говорили смо о концептима етике, изазовима и студијама случаја у контексту стварног света. Али како започети примену етичких принципа и пракси у нашим пројектима? И како операционализовати ове праксе за боље управљање? Истражимо нека решења из стварног света:

1. Професионални кодекси

Професионални кодекси нуде једну опцију за организације да "подстакну" чланове да подрже своје етичке принципе и мисију. Кодекси су моралне смернице за професионално понашање, помажући запосленима или члановима да доносе одлуке које су у складу са принципима њихове организације. Они су добри онолико колико је добровољно придржавање чланова; међутим, многе организације нуде додатне награде и казне како би мотивисале чланове да се придржавају кодекса.

Примери укључују:

🚨 Да ли припадате професионалној организацији за инжењеринг или науку о подацима? Истражите њихов сајт да видите да ли дефинишу професионални кодекс етике. Шта то говори о њиховим етичким принципима? Како "подстичу" чланове да следе кодекс?

2. Етичке чеклисте

Док професионални кодекси дефинишу потребно етичко понашање од практичара, они имају позната ограничења у спровођењу, посебно у пројектима великог обима. Уместо тога, многи стручњаци за науку о подацима залажу се за чеклисте, које могу повезати принципе са праксом на детерминистички и применљив начин.

Чеклисте претварају питања у "да/не" задатке који се могу операционализовати, омогућавајући њихово праћење као део стандардних радних токова за пуштање производа.

Примери укључују:

  • Deon - општа чеклиста за етику података креирана из препорука индустрије са алатом командне линије за лаку интеграцију.
  • Privacy Audit Checklist - пружа опште смернице за праксе руковања информацијама из правних и социјалних перспектива.
  • AI Fairness Checklist - креирана од стране AI практичара за подршку усвајању и интеграцији провера праведности у циклусе развоја AI.
  • 22 questions for ethics in data and AI - отворенији оквир, структуриран за почетно истраживање етичких питања у дизајну, имплементацији и организационим контекстима.

3. Етички прописи

Етика се односи на дефинисање заједничких вредности и добровољно чинињење исправних ствари. Усклађеност се односи на поштовање закона ако и где је дефинисан. Управљање уопштено покрива све начине на које организације раде на спровођењу етичких принципа и усклађивању са утврђеним законима.

Данас управљање има два облика унутар организација. Прво, ради се о дефинисању етичких AI принципа и успостављању пракси за операционализацију усвајања у свим AI пројектима у организацији. Друго, ради се о усклађивању са свим владиним прописима о заштити података за регионе у којима послује.

Примери прописа о заштити података и приватности:

🚨 Европска унија је дефинисала GDPR (Општа уредба о заштити података), која остаје један од најутицајнијих прописа о приватности података данас. Да ли сте знали да такође дефинише 8 права корисника за заштиту дигиталне приватности и личних података грађана? Сазнајте која су то права и зашто су важна.

4. Култура етике

Имајте на уму да постоји нематеријални јаз између усклађености (чинињења довољно да се испуни "слово закона") и решавања системских проблема (као што су осификација, асиметрија информација и неправедна расподела) који могу убрзати злоупотребу AI.

Ово друго захтева колаборативне приступе дефинисању култура етике који граде емоционалне везе и доследне заједничке вредности широм организација у индустрији. Ово позива на више формализованих култура етике података у организацијама - омогућавајући било коме

Задатак

Напишите студију случаја о етици података


Одрицање од одговорности:
Овај документ је преведен коришћењем услуге за превођење помоћу вештачке интелигенције Co-op Translator. Иако се трудимо да обезбедимо тачност, молимо вас да имате у виду да аутоматски преводи могу садржати грешке или нетачности. Оригинални документ на његовом изворном језику треба сматрати ауторитативним извором. За критичне информације препоручује се професионални превод од стране људи. Не преузимамо одговорност за било каква погрешна тумачења или неспоразуме који могу настати услед коришћења овог превода.