You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/sr/1-Introduction/02-ethics
leestott a12f5d4c2d
🌐 Update translations via Co-op Translator
4 months ago
..
README.md 🌐 Update translations via Co-op Translator 4 months ago
assignment.md 🌐 Update translations via Co-op Translator 5 months ago

README.md

Увод у етику података

 Скетч од (@sketchthedocs)
Етика у науци о подацима - Скетч од @nitya

Сви смо ми грађани података који живе у свету заснованом на подацима.

Трендови на тржишту показују да ће до 2022. године једна од три велике организације куповати и продавати своје податке преко онлајн тржишта и размена. Као развијачи апликација, лакше ћемо и јефтиније интегрисати увиде засноване на подацима и аутоматизацију засновану на алгоритмима у свакодневна корисничка искуства. Али како вештачка интелигенција постаје све присутнија, мораћемо да разумемо и потенцијалне штете које могу настати употребом таквих алгоритама у великом обиму.

Трендови указују да ћемо до 2025. године генерисати и конзумирати преко 180 зетабајта података. За научнике о подацима, ова експлозија информација пружа безпрецедентан приступ личним и понашајним подацима. Уз то долази моћ да се изграде детаљни кориснички профили и суптилно утиче на доношење одлука—често на начине који стварају илузију слободног избора. Иако се то може користити за усмеравање корисника ка пожељним исходима, то такође поставља важна питања о приватности података, аутономији и етичким границама алгоритамског утицаја.

Етика података сада представља неопходне ограде за науку о подацима и инжењеринг, помажући нам да минимизирамо потенцијалне штете и нежељене последице наших акција заснованих на подацима. Гартнеров циклус хипа за вештачку интелигенцију идентификује релевантне трендове у дигиталној етици, одговорној вештачкој интелигенцији и управљању вештачком интелигенцијом као кључне покретаче већих мегатрендова око демократизације и индустријализације вештачке интелигенције.

Гартнеров циклус хипа за вештачку интелигенцију - 2020

У овом лекцији, истражићемо фасцинантну област етике података - од основних концепата и изазова, до студија случаја и примењених концепата вештачке интелигенције као што је управљање - који помажу у успостављању културе етике у тимовима и организацијама које раде са подацима и вештачком интелигенцијом.

Квиз пре предавања 🎯

Основне дефиниције

Почнимо са разумевањем основне терминологије.

Реч "етика" потиче од грчке речи "ethikos" (и њеног корена "ethos") што значи карактер или морална природа.

Етика се односи на заједничке вредности и моралне принципе који управљају нашим понашањем у друштву. Етика се не заснива на законима, већ на широко прихваћеним нормама о томе шта је "исправно насупрот погрешном". Међутим, етичка разматрања могу утицати на иницијативе корпоративног управљања и владине регулативе које стварају више подстицаја за усаглашеност.

Етика података је нова грана етике која "проучава и процењује моралне проблеме повезане са подацима, алгоритмима и одговарајућим праксама". Овде, "подаци" се фокусирају на акције везане за генерисање, снимање, курирање, обраду, ширење, дељење и употребу, "алгоритми" се фокусирају на вештачку интелигенцију, агенте, машинско учење и роботе, а "праксе" се фокусирају на теме као што су одговорна иновација, програмирање, хаковање и кодекси етике.

Примењена етика је практична примена моралних разматрања. То је процес активног истраживања етичких питања у контексту акција, производа и процеса у стварном свету, и предузимање корективних мера како би се осигурало да они остану усклађени са нашим дефинисаним етичким вредностима.

Култура етике се односи на операционализацију примењене етике како би се осигурало да наши етички принципи и праксе буду усвојени на доследан и скалабилан начин широм целе организације. Успешне културе етике дефинишу етичке принципе на нивоу организације, пружају значајне подстицаје за усаглашеност и јачају норме етике подстичући и појачавајући жељена понашања на свим нивоима организације.

Концепти етике

У овом делу, разговараћемо о концептима као што су заједничке вредности (принципи) и етички изазови (проблеми) за етику података - и истражити студије случаја које вам помажу да разумете ове концепте у контексту стварног света.

1. Принципи етике

Свака стратегија етике података почиње дефинисањем етичких принципа - "заједничких вредности" које описују прихватљива понашања и воде усаглашене акције у нашим пројектима везаним за податке и вештачку интелигенцију. Можете их дефинисати на индивидуалном или тимском нивоу. Међутим, већина великих организација их дефинише у оквиру мисије или оквира етичке вештачке интелигенције на корпоративном нивоу и доследно их примењује у свим тимовима.

Пример: Мисија Одговорна вештачка интелигенција компаније Microsoft гласи: "Посвећени смо напретку вештачке интелигенције вођене етичким принципима који стављају људе на прво место" - идентификујући 6 етичких принципа у оквиру приказаном испод:

Одговорна вештачка интелигенција у Microsoft-у

Хајде да укратко истражимо ове принципе. Транспарентност и одговорност су основне вредности на којима се граде остали принципи - па почнимо од њих:

  • Одговорност чини практичаре одговорним за њихове операције везане за податке и вештачку интелигенцију, као и за усаглашеност са овим етичким принципима.
  • Транспарентност осигурава да су акције везане за податке и вештачку интелигенцију разумљиве (интерпретабилне) корисницима, објашњавајући шта и зашто стоји иза одлука.
  • Праведност - фокусира се на осигурање да вештачка интелигенција третира све људе праведно, решавајући било какве системске или имплицитне социо-техничке пристрасности у подацима и системима.
  • Поузданост и безбедност - осигурава да вештачка интелигенција делује доследно са дефинисаним вредностима, минимизирајући потенцијалне штете или нежељене последице.
  • Приватност и безбедност - односи се на разумевање порекла података и пружање заштите приватности података корисницима.
  • Инклузивност - односи се на дизајнирање решења вештачке интелигенције са намером, прилагођавајући их да задовоље широк спектар људских потреба и способности.

🚨 Размислите о томе шта би могла бити ваша мисија етике података. Истражите оквире етичке вештачке интелигенције других организација - овде су примери од IBM, Google, и Facebook. Које заједничке вредности имају? Како се ови принципи односе на производе или индустрију вештачке интелигенције у којој делују?

2. Етички изазови

Када дефинишемо етичке принципе, следећи корак је процена наших акција везаних за податке и вештачку интелигенцију како бисмо видели да ли су у складу са тим заједничким вредностима. Размислите о својим акцијама у две категорије: прикупљање података и дизајн алгоритама.

Код прикупљања података, акције ће вероватно укључивати личне податке или лично идентификационе информације (PII) за идентификоване живе особе. Ово укључује разноврсне ставке неперсоналних података које заједно идентификују појединца. Етички изазови могу се односити на приватност података, власништво над подацима и сродне теме као што су информисани пристанак и права интелектуалне својине за кориснике.

Код дизајна алгоритама, акције ће укључивати прикупљање и курирање скупова података, а затим њихово коришћење за тренирање и примену модела података који предвиђају исходе или аутоматизују одлуке у стварним контекстима. Етички изазови могу настати из пристраности у скупу података, проблема са квалитетом података, неправедности и погрешног представљања у алгоритмима - укључујући неке проблеме који су системске природе.

У оба случаја, етички изазови истичу области где наше акције могу бити у сукобу са нашим заједничким вредностима. Да бисмо их открили, ублажили, минимизирали или елиминисали, потребно је да поставимо морална "да/не" питања у вези са нашим акцијама, а затим предузмемо корективне мере по потреби. Хајде да погледамо неке етичке изазове и морална питања која они постављају:

2.1 Власништво над подацима

Прикупљање података често укључује личне податке који могу идентификовати субјекте података. Власништво над подацима се односи на контролу и права корисника у вези са креирањем, обрадом и ширењем података.

Морална питања која треба поставити су:

  • Ко је власник података? (корисник или организација)
  • Која права имају субјекти података? (нпр. приступ, брисање, преносивост)
  • Која права имају организације? (нпр. исправљање злонамерних корисничких рецензија)

2.2 Информисани пристанак

Информисани пристанак дефинише чин корисника који пристаје на акцију (као што је прикупљање података) уз потпуно разумевање релевантних чињеница, укључујући сврху, потенцијалне ризике и алтернативе.

Питања за истраживање овде су:

  • Да ли је корисник (субјект података) дао дозволу за прикупљање и употребу података?
  • Да ли је корисник разумео сврху за коју су ти подаци прикупљени?
  • Да ли је корисник разумео потенцијалне ризике од свог учешћа?

2.3 Интелектуална својина

Интелектуална својина односи се на нематеријалне творевине које су резултат људске иницијативе, а које могу имати економску вредност за појединце или предузећа.

Питања за истраживање овде су:

  • Да ли прикупљени подаци имају економску вредност за корисника или предузеће?
  • Да ли корисник има интелектуалну својину овде?
  • Да ли организација има интелектуалну својину овде?
  • Ако ова права постоје, како их штитимо?

2.4 Приватност података

Приватност података или информациона приватност односи се на очување приватности корисника и заштиту идентитета корисника у вези са лично идентификационим информацијама.

Питања за истраживање овде су:

  • Да ли су кориснички (лични) подаци заштићени од хаковања и цурења?
  • Да ли су кориснички подаци доступни само овлашћеним корисницима и контекстима?
  • Да ли је анонимност корисника очувана када се под
  • Да ли су информације забележене тачно у одражавању стварности?

2.8 Праведност алгоритма

Праведност алгоритма проверава да ли дизајн алгоритма систематски дискриминише одређене подгрупе субјеката података, што доводи до потенцијалних штета у расподели (где се ресурси ускраћују или задржавају за ту групу) и квалитету услуге (где вештачка интелигенција није толико прецизна за неке подгрупе као за друге).

Питања за истраживање:

  • Да ли смо проценили тачност модела за различите подгрупе и услове?
  • Да ли смо детаљно испитали систем за потенцијалне штете (нпр. стереотипизацију)?
  • Можемо ли ревидирати податке или поново обучити моделе како бисмо ублажили идентификоване штете?

Истражите ресурсе као што су контролне листе за праведност вештачке интелигенције за више информација.

2.9 Погрешно представљање

Погрешно представљање података подразумева питање да ли комуницирамо увиде из искрено пријављених података на обмањујући начин како бисмо подржали жељени наратив.

Питања за истраживање:

  • Да ли пријављујемо непотпуне или нетачне податке?
  • Да ли визуализујемо податке на начин који води до обмањујућих закључака?
  • Да ли користимо селективне статистичке технике за манипулацију резултатима?
  • Да ли постоје алтернативна објашњења која могу понудити другачији закључак?

2.10 Слободан избор

Илузија слободног избора се јавља када системске "архитектуре избора" користе алгоритме за доношење одлука како би подстакле људе да донесу жељени исход, док им се чини да имају опције и контролу. Ови мрачни обрасци могу изазвати социјалну и економску штету корисницима. Пошто одлуке корисника утичу на профиле понашања, ове акције потенцијално покрећу будуће изборе који могу појачати или проширити утицај ових штета.

Питања за истраживање:

  • Да ли је корисник разумео импликације доношења тог избора?
  • Да ли је корисник био свестан (алтернативних) избора и предности и недостатака сваког?
  • Може ли корисник касније поништити аутоматизован или утицајем изазван избор?

3. Студије случаја

Да бисмо поставили ове етичке изазове у контекст стварног света, корисно је погледати студије случаја које истичу потенцијалне штете и последице за појединце и друштво када се занемарују таква кршења етике.

Ево неколико примера:

Етички изазов Студија случаја
Информисани пристанак 1972 - Тускеги студија о сифилису - Афроамериканци који су учествовали у студији обећана је бесплатна медицинска нега али су обманути од стране истраживача који нису обавестили субјекте о њиховој дијагнози или доступности лечења. Многи субјекти су умрли, а партнери или деца су били погођени; студија је трајала 40 година.
Приватност података 2007 - Награда за Netflix податке пружила је истраживачима 10 милиона анонимизованих оцена филмова од 50 хиљада корисника како би побољшали алгоритме препорука. Међутим, истраживачи су успели да повежу анонимизоване податке са лично идентификационим подацима у спољним скуповима података (нпр. IMDb коментари) - ефективно "деанонимизујући" неке Netflix претплатнике.
Прикупљање пристрасних података 2013 - Град Бостон развио Street Bump, апликацију која је омогућила грађанима да пријаве рупе на путу, пружајући граду боље податке о путевима за проналажење и поправку проблема. Међутим, људи из група са нижим приходима имали су мањи приступ аутомобилима и телефонима, чинећи њихове проблеме на путевима невидљивим у овој апликацији. Развијачи су сарађивали са академицима на решавању питања праведног приступа и дигиталних подела.
Праведност алгоритма 2018 - MIT Gender Shades Study је проценила тачност AI производа за класификацију пола, откривајући недостатке у тачности за жене и особе боје коже. Apple Card из 2019 је изгледа нудила мање кредита женама него мушкарцима. Оба случаја илуструју проблеме пристрасности алгоритма који доводе до социо-економских штета.
Погрешно представљање података 2020 - Одељење за јавно здравље Џорџије објавило је графиконе о COVID-19 који су изгледали као да обмањују грађане о трендовима у потврђеним случајевима са не-хронолошким редоследом на x-оси. Ово илуструје погрешно представљање кроз трикове визуализације.
Илузија слободног избора 2020 - Апликација за учење ABCmouse платила је $10M за решавање FTC жалбе где су родитељи били заробљени у плаћању претплата које нису могли отказати. Ово илуструје мрачне обрасце у архитектури избора, где су корисници били подстакнути ка потенцијално штетним изборима.
Приватност података и права корисника 2021 - Facebook провала података открила је податке 530 милиона корисника, што је резултирало нагодбом од $5 милијарди са FTC. Међутим, одбили су да обавесте кориснике о провали, кршећи права корисника у вези са транспарентношћу и приступом подацима.

Желите да истражите више студија случаја? Погледајте ове ресурсе:

🚨 Размислите о студијама случаја које сте видели - да ли сте доживели или били погођени сличним етичким изазовом у свом животу? Можете ли се сетити барем једне друге студије случаја која илуструје један од етичких изазова које смо овде разматрали?

Примењена етика

Говорили смо о концептима етике, изазовима и студијама случаја у контексту стварног света. Али како започети примену етичких принципа и пракси у нашим пројектима? И како операционализовати ове праксе за боље управљање? Хајде да истражимо нека решења из стварног света:

1. Професионални кодекси

Професионални кодекси нуде једну опцију за организације да "подстакну" чланове да подрже своје етичке принципе и мисију. Кодекси су моралне смернице за професионално понашање, помажући запосленима или члановима да доносе одлуке које су у складу са принципима њихове организације. Они су добри онолико колико је добра добровољна усаглашеност чланова; међутим, многе организације нуде додатне награде и казне како би мотивисале чланове да се придржавају кодекса.

Примери укључују:

🚨 Да ли припадате професионалној организацији за инжењеринг или науку о подацима? Истражите њихов сајт да видите да ли дефинишу професионални кодекс етике. Шта то говори о њиховим етичким принципима? Како "подстичу" чланове да следе кодекс?

2. Контролне листе за етику

Док професионални кодекси дефинишу потребно етичко понашање од практичара, они имају позната ограничења у спровођењу, посебно у пројектима великог обима. Уместо тога, многи стручњаци за науку о подацима залажу се за контролне листе, које могу повезати принципе са праксом на детерминистички и применљив начин.

Контролне листе претварају питања у задатке "да/не" који се могу операционализовати, омогућавајући њихово праћење као део стандардних радних токова за пуштање производа.

Примери укључују:

3. Регулативе за етику

Етика се односи на дефинисање заједничких вредности и добровољно чинење исправних ствари. Усклађеност се односи на поштовање закона ако и где је дефинисан. Управљање у ширем смислу обухвата све начине на које организације делују како би спровеле етичке принципе и поштовале утврђене законе.

Данас управљање има два облика унутар организација. Прво, ради се о дефинисању принципа етичке вештачке интелигенције и успостављању пракси за операционализацију усвајања у свим пројектима везаним за AI у организацији. Друго, ради се о усклађивању са свим владиним прописима о заштити података за регионе у којима послује.

Примери прописа о заштити података и приватности:

🚨 Европска унија је дефинисала GDPR (Општа уредба о заштити података), која остаје један од најзначајнијих прописа о приватности података данас. Да ли сте знали да такође дефинише 8 права корисника за заштиту дигиталне приватности и личних података грађана? Сазнајте која су то права и зашто су важна.

4. Култура етике

Имајте на уму да постоји нематеријални јаз између усклађености (чинење довољно да се испуни "слово закона") и решавања системских проблема (као што су осификација, асиметрија информација и неправед

Задатак

Напишите студију случаја о етици података


Одрицање од одговорности:
Овај документ је преведен помоћу услуге за превођење уз помоћ вештачке интелигенције Co-op Translator. Иако се трудимо да обезбедимо тачност, молимо вас да имате у виду да аутоматски преводи могу садржати грешке или нетачности. Оригинални документ на његовом изворном језику треба сматрати ауторитативним извором. За критичне информације препоручује се професионални превод од стране људи. Не преузимамо одговорност за било каква погрешна тумачења или неспоразуме који могу произаћи из коришћења овог превода.