You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/sr/1-Introduction/02-ethics/README.md

232 lines
40 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
"translation_date": "2025-09-05T19:12:34+00:00",
"source_file": "1-Introduction/02-ethics/README.md",
"language_code": "sr"
}
-->
# Увод у етику података
|![ Скетч од [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)|
|:---:|
| Етика у науци о подацима - _Скетч од [@nitya](https://twitter.com/nitya)_ |
---
Сви смо ми грађани података који живе у свету заснованом на подацима.
Трендови на тржишту показују да ће до 2022. године једна од три велике организације куповати и продавати своје податке преко онлајн [тржишта и берзи](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/). Као **развијачи апликација**, лакше и јефтиније ћемо интегрисати увиде засноване на подацима и аутоматизацију засновану на алгоритмима у свакодневна корисничка искуства. Али како вештачка интелигенција постаје све присутнија, мораћемо да разумемо потенцијалне штете које могу настати [употребом](https://www.youtube.com/watch?v=TQHs8SA1qpk) таквих алгоритама у великом обиму.
Трендови такође указују да ћемо до 2025. године креирати и конзумирати преко [180 зетабајта](https://www.statista.com/statistics/871513/worldwide-data-created/) података. Као **научници о подацима**, имаћемо невиђен ниво приступа личним подацима. То значи да можемо градити профиле понашања корисника и утицати на доношење одлука на начине који стварају [илузију слободног избора](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), док потенцијално усмеравамо кориснике ка исходима који нам одговарају. Ово такође поставља шира питања о приватности података и заштити корисника.
Етика података сада представља еопходне заштитне мере_ за науку о подацима и инжењеринг, помажући нам да минимизирамо потенцијалне штете и нежељене последице наших акција заснованих на подацима. [Гартнеров циклус хипа за вештачку интелигенцију](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) идентификује релевантне трендове у дигиталној етици, одговорној вештачкој интелигенцији и управљању вештачком интелигенцијом као кључне покретаче већих мегатрендова око емократизације_ и _индустријализације_ вештачке интелигенције.
![Гартнеров циклус хипа за вештачку интелигенцију - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==)
У овом часу истражићемо фасцинантну област етике података - од основних концепата и изазова, до студија случаја и примењених концепата вештачке интелигенције као што је управљање - који помажу у успостављању културе етике у тимовима и организацијама које раде са подацима и вештачком интелигенцијом.
## [Квиз пре предавања](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
## Основне дефиниције
Почнимо са разумевањем основне терминологије.
Реч "етика" потиче од [грчке речи "ethikos"](https://en.wikipedia.org/wiki/Ethics) (и њеног корена "ethos") која значи арактер или морална природа_.
**Етика** се односи на заједничке вредности и моралне принципе који управљају нашим понашањем у друштву. Етика се не заснива на законима, већ на широко прихваћеним нормама о томе шта је "исправно наспрам погрешног". Међутим, етичка разматрања могу утицати на иницијативе корпоративног управљања и владине регулативе које стварају више подстицаја за усаглашеност.
**Етика података** је [нова грана етике](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) која "проучава и процењује моралне проблеме повезане са _подацима, алгоритмима и одговарајућим праксама_". Овде, **"подаци"** се фокусирају на акције повезане са генерисањем, снимањем, курирањем, обрадом, ширењем, дељењем и употребом, **"алгоритми"** се фокусирају на вештачку интелигенцију, агенте, машинско учење и роботе, а **"праксе"** се фокусирају на теме као што су одговорне иновације, програмирање, хаковање и кодекси етике.
**Примењена етика** је [практична примена моралних разматрања](https://en.wikipedia.org/wiki/Applied_ethics). То је процес активног истраживања етичких питања у контексту _акција, производа и процеса у стварном свету_, и предузимање корективних мера како би се осигурало да они остану усклађени са нашим дефинисаним етичким вредностима.
**Култура етике** се односи на [_операционализацију_ примењене етике](https://hbr.org/2019/05/how-to-design-an-ethical-organization) како би се осигурало да наши етички принципи и праксе буду усвојени на доследан и скалабилан начин широм целе организације. Успешне културе етике дефинишу етичке принципе на нивоу организације, пружају значајне подстицаје за усаглашеност и јачају норме етике охрабрујући и појачавајући жељена понашања на свим нивоима организације.
## Концепти етике
У овом одељку ћемо разговарати о концептима као што су **заједничке вредности** (принципи) и **етички изазови** (проблеми) за етику података - и истражити **студије случаја** које вам помажу да разумете ове концепте у контекстима стварног света.
### 1. Принципи етике
Свака стратегија етике података почиње дефинисањем _етичких принципа_ - "заједничких вредности" које описују прихватљива понашања и воде усаглашене акције у нашим пројектима података и вештачке интелигенције. Можете их дефинисати на индивидуалном или тимском нивоу. Међутим, већина великих организација их наводи у _мисији етичке вештачке интелигенције_ или оквиру који је дефинисан на корпоративном нивоу и доследно спроведен у свим тимовима.
**Пример:** Мисија [Одговорне вештачке интелигенције](https://www.microsoft.com/en-us/ai/responsible-ai) компаније Microsoft гласи: _"Посвећени смо напретку вештачке интелигенције вођене етичким принципима који стављају људе на прво место"_ - идентификујући 6 етичких принципа у оквиру испод:
![Одговорна вештачка интелигенција у Microsoft-у](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png)
Хајде да укратко истражимо ове принципе. _Транспарентност_ и _одговорност_ су основне вредности на којима се граде остали принципи - па почнимо од њих:
* [**Одговорност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) чини практичаре _одговорним_ за њихове операције са подацима и вештачком интелигенцијом, као и за усаглашеност са овим етичким принципима.
* [**Транспарентност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) осигурава да су акције са подацима и вештачком интелигенцијом _разумљиве_ (интерпретабилне) корисницима, објашњавајући шта и зашто стоји иза одлука.
* [**Праведност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - фокусира се на осигурање да вештачка интелигенција третира _све људе_ праведно, решавајући било какве системске или имплицитне социо-техничке пристрасности у подацима и системима.
* [**Поузданост и безбедност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - осигурава да се вештачка интелигенција понаша оследно_ са дефинисаним вредностима, минимизирајући потенцијалне штете или нежељене последице.
* [**Приватност и безбедност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - односи се на разумевање порекла података и пружање аштите приватности података_ корисницима.
* [**Инклузивност**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - односи се на дизајнирање решења вештачке интелигенције са намером, прилагођавајући их да задовоље _широк спектар људских потреба_ и способности.
> 🚨 Размислите о томе шта би могла бити ваша мисија етике података. Истражите оквире етичке вештачке интелигенције других организација - овде су примери из [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), и [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Које заједничке вредности имају? Како се ови принципи односе на производе или индустрију вештачке интелигенције у којој делују?
### 2. Етички изазови
Када дефинишемо етичке принципе, следећи корак је процена наших акција са подацима и вештачком интелигенцијом како бисмо видели да ли су у складу са тим заједничким вредностима. Размислите о својим акцијама у две категорије: _прикупљање података_ и _дизајн алгоритама_.
Код прикупљања података, акције ће вероватно укључивати **личне податке** или информације које могу идентификовати живе индивидуе. Ово укључује [разноврсне ставке неперсоналних података](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) које аједно_ идентификују појединца. Етички изазови могу се односити на _приватност података_, _власништво над подацима_ и сродне теме као што су _информисани пристанак_ и _права интелектуалне својине_ корисника.
Код дизајна алгоритама, акције ће укључивати прикупљање и курирање **скупова података**, а затим њихово коришћење за тренирање и примену **модела података** који предвиђају исходе или аутоматизују одлуке у стварним контекстима. Етички изазови могу настати из _пристраности у скупу података_, проблема са _квалитетом података_, еправедности_ и _погрешног представљања_ у алгоритмима - укључујући неке проблеме који су системске природе.
У оба случаја, етички изазови истичу области где наше акције могу бити у сукобу са нашим заједничким вредностима. Да бисмо открили, ублажили, минимизирали или елиминисали ове проблеме, морамо постављати морална "да/не" питања у вези са нашим акцијама, а затим предузимати корективне мере по потреби. Хајде да погледамо неке етичке изазове и морална питања која они постављају:
#### 2.1 Власништво над подацима
Прикупљање података често укључује личне податке који могу идентификовати субјекте података. [Власништво над подацима](https://permission.io/blog/data-ownership) се односи на онтролу_ и [_права корисника_](https://permission.io/blog/data-ownership) у вези са креирањем, обрадом и ширењем података.
Морална питања која треба поставити су:
* Ко поседује податке? (корисник или организација)
* Која права имају субјекти података? (нпр. приступ, брисање, преносивост)
* Која права имају организације? (нпр. исправљање злонамерних корисничких рецензија)
#### 2.2 Информисани пристанак
[Информисани пристанак](https://legaldictionary.net/informed-consent/) дефинише чин корисника који пристају на акцију (као што је прикупљање података) са _потпуним разумевањем_ релевантних чињеница, укључујући сврху, потенцијалне ризике и алтернативе.
Питања за истраживање овде су:
* Да ли је корисник (субјект података) дао дозволу за прикупљање и употребу података?
* Да ли је корисник разумео сврху за коју су ти подаци прикупљени?
* Да ли је корисник разумео потенцијалне ризике од свог учешћа?
#### 2.3 Интелектуална својина
[Интелектуална својина](https://en.wikipedia.org/wiki/Intellectual_property) се односи на нематеријалне креације које су резултат људске иницијативе, а које могу _имати економску вредност_ за појединце или предузећа.
Питања за истраживање овде су:
* Да ли прикупљени подаци имају економску вредност за корисника или предузеће?
* Да ли **корисник** има интелектуалну својину овде?
* Да ли **организација** има интелектуалну својину овде?
* Ако ова права постоје, како их штитимо?
#### 2.4 Приватност података
[Приватност података](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) или информациона приватност односи се на очување приватности корисника и заштиту идентитета корисника у вези са лично идентификујућим информацијама.
Питања за истраживање овде су:
* Да ли су кориснички (лични) подаци заштићени од хаковања и цурења?
* Да ли су кориснички подаци доступни само овлашћеним корисницима и контекстима?
* Да ли је анонимност корисника очувана када се подаци деле или шире?
* Може ли корисник бити деидентификован из анонимизованих скупова података?
#### 2.5 Право на заборав
[Право на заборав](https
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) проверава да ли је дизајн алгоритма систематски дискриминаторски према одређеним подгрупама субјеката података, што доводи до [потенцијалних штета](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) у _расподели_ (где се ресурси ускраћују или одбијају тој групи) и _квалитету услуге_ (где вештачка интелигенција није толико прецизна за неке подгрупе као за друге).
Питања за истраживање:
* Да ли смо проценили тачност модела за различите подгрупе и услове?
* Да ли смо детаљно испитали систем због потенцијалних штета (нпр. стереотипизација)?
* Можемо ли ревидирати податке или поново обучити моделе како бисмо ублажили идентификоване штете?
Истражите ресурсе као што су [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) за више информација.
#### 2.9 Погрешно представљање
[Погрешно представљање података](https://www.sciencedirect.com/topics/computer-science/misrepresentation) подразумева питање да ли комуницирамо увиде из искрено пријављених података на обмањујући начин како бисмо подржали жељени наратив.
Питања за истраживање:
* Да ли пријављујемо непотпуне или нетачне податке?
* Да ли визуализујемо податке на начин који води до погрешних закључака?
* Да ли користимо селективне статистичке технике за манипулацију резултатима?
* Да ли постоје алтернативна објашњења која могу понудити другачији закључак?
#### 2.10 Слободан избор
[Илузија слободног избора](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) се јавља када системске "архитектуре избора" користе алгоритме за доношење одлука како би усмериле људе ка жељеном исходу, док им истовремено дају привид опција и контроле. Ови [мрачни обрасци](https://www.darkpatterns.org/) могу изазвати социјалну и економску штету корисницима. Пошто одлуке корисника утичу на профиле понашања, ове акције потенцијално покрећу будуће изборе који могу појачати или продужити утицај ових штета.
Питања за истраживање:
* Да ли је корисник разумео импликације доношења тог избора?
* Да ли је корисник био свестан (алтернативних) избора и предности и недостатака сваког?
* Може ли корисник касније поништити аутоматизован или утицајем изазван избор?
### 3. Студије случаја
Да бисмо поставили ове етичке изазове у контекст стварног света, корисно је погледати студије случаја које истичу потенцијалне штете и последице за појединце и друштво када се занемарују кршења етике.
Ево неколико примера:
| Етички изазов | Студија случаја |
|--- |--- |
| **Информисани пристанак** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Афроамериканци који су учествовали у студији обећана је бесплатна медицинска нега, _али су истраживачи обманули_ учеснике, не обавестивши их о дијагнози или доступности лечења. Многи учесници су умрли, а партнери или деца су били погођени; студија је трајала 40 година. |
| **Приватност података** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) је истраживачима пружио _10 милиона анонимних оцена филмова од 50 хиљада корисника_ како би побољшали алгоритме препорука. Међутим, истраживачи су успели да повежу анонимне податке са лично идентификационим подацима у _спољним скуповима података_ (нпр. IMDb коментари), ефективно "деанонимизујући" неке Netflix претплатнике. |
| **Прикупљање пристрасних података** | 2013 - Град Бостон [развио Street Bump](https://www.boston.gov/transportation/street-bump), апликацију која је омогућила грађанима да пријаве рупе на путу, пружајући граду боље податке о путевима за проналажење и поправку проблема. Међутим, [људи из група са нижим приходима имали су мањи приступ аутомобилима и телефонима](https://hbr.org/2013/04/the-hidden-biases-in-big-data), чинећи њихове проблеме на путевима невидљивим у овој апликацији. Развијачи су сарађивали са академицима на решавању питања _праведног приступа и дигиталних подела_. |
| **Праведност алгоритма** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) је проценио тачност AI производа за класификацију пола, откривајући недостатке у тачности за жене и особе у боји. [Apple Card из 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) је изгледа нудио мање кредита женама него мушкарцима. Оба случаја илуструју проблеме пристрасности алгоритма који доводе до социо-економских штета. |
| **Погрешно представљање података** | 2020 - [Грузијски одсек за јавно здравље објавио је графиконе о COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) који су изгледали као да обмањују грађане о трендовима у потврђеним случајевима са нехронолошким редоследом на x-оси. Ово илуструје погрешно представљање кроз трикове визуализације. |
| **Илузија слободног избора** | 2020 - Апликација за учење [ABCmouse платила је $10M за решавање жалбе FTC-а](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) где су родитељи били приморани да плаћају претплате које нису могли да откажу. Ово илуструје мрачне обрасце у архитектури избора, где су корисници били усмерени ка потенцијално штетним изборима. |
| **Приватност података и права корисника** | 2021 - Facebook [Data Breach](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) је открио податке 530 милиона корисника, што је резултирало нагодбом од $5 милијарди са FTC-ом. Међутим, Facebook је одбио да обавести кориснике о кршењу, кршећи права корисника у вези са транспарентношћу и приступом подацима. |
Желите да истражите више студија случаја? Погледајте ове ресурсе:
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - етичке дилеме у различитим индустријама.
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - истражене значајне студије случаја.
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - Deon чеклиста са примерима.
> 🚨 Размислите о студијама случаја које сте видели - да ли сте доживели или били погођени сличним етичким изазовом у свом животу? Можете ли се сетити барем једне друге студије случаја која илуструје један од етичких изазова које смо овде разматрали?
## Примењена етика
Говорили смо о концептима етике, изазовима и студијама случаја у контексту стварног света. Али како започети _примену_ етичких принципа и пракси у нашим пројектима? И како _операционализовати_ ове праксе за боље управљање? Истражимо нека решења из стварног света:
### 1. Професионални кодекси
Професионални кодекси нуде једну опцију за организације да "подстакну" чланове да подрже своје етичке принципе и мисију. Кодекси су оралне смернице_ за професионално понашање, помажући запосленима или члановима да доносе одлуке које су у складу са принципима њихове организације. Они су добри онолико колико је добровољно придржавање чланова; међутим, многе организације нуде додатне награде и казне како би мотивисале чланове да се придржавају кодекса.
Примери укључују:
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Кодекс етике
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Кодекс понашања (креиран 2013)
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (од 1993)
> 🚨 Да ли припадате професионалној организацији за инжењеринг или науку о подацима? Истражите њихов сајт да видите да ли дефинишу професионални кодекс етике. Шта то говори о њиховим етичким принципима? Како "подстичу" чланове да следе кодекс?
### 2. Етичке чеклисте
Док професионални кодекси дефинишу потребно _етичко понашање_ од практичара, они [имају позната ограничења](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) у спровођењу, посебно у пројектима великог обима. Уместо тога, многи стручњаци за науку о подацима [залажу се за чеклисте](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), које могу **повезати принципе са праксом** на детерминистички и применљив начин.
Чеклисте претварају питања у "да/не" задатке који се могу операционализовати, омогућавајући њихово праћење као део стандардних радних токова за пуштање производа.
Примери укључују:
* [Deon](https://deon.drivendata.org/) - општа чеклиста за етику података креирана из [препорука индустрије](https://deon.drivendata.org/#checklist-citations) са алатом командне линије за лаку интеграцију.
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - пружа опште смернице за праксе руковања информацијама из правних и социјалних перспектива.
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - креирана од стране AI практичара за подршку усвајању и интеграцији провера праведности у циклусе развоја AI.
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - отворенији оквир, структуриран за почетно истраживање етичких питања у дизајну, имплементацији и организационим контекстима.
### 3. Етички прописи
Етика се односи на дефинисање заједничких вредности и добровољно чинињење исправних ствари. **Усклађеност** се односи на _поштовање закона_ ако и где је дефинисан. **Управљање** уопштено покрива све начине на које организације раде на спровођењу етичких принципа и усклађивању са утврђеним законима.
Данас управљање има два облика унутар организација. Прво, ради се о дефинисању **етичких AI** принципа и успостављању пракси за операционализацију усвајања у свим AI пројектима у организацији. Друго, ради се о усклађивању са свим владиним прописима о **заштити података** за регионе у којима послује.
Примери прописа о заштити података и приватности:
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - регулише едералну владу_ у прикупљању, коришћењу и откривању личних информација.
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - штити личне здравствене податке.
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - штити приватност података деце млађе од 13 година.
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - пружа права корисника, заштиту података и приватност.
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) даје потрошачима више _права_ над њиховим (личним) подацима.
* `2021`, Кина [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) је управо усвојила, стварајући један од најјачих прописа о приватности података на мрежи у свету.
> 🚨 Европска унија је дефинисала GDPR (Општа уредба о заштити података), која остаје један од најутицајнијих прописа о приватности података данас. Да ли сте знали да такође дефинише [8 права корисника](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) за заштиту дигиталне приватности и личних података грађана? Сазнајте која су то права и зашто су важна.
### 4. Култура етике
Имајте на уму да постоји нематеријални јаз између _усклађености_ (чинињења довољно да се испуни "слово закона") и решавања [системских проблема](https://www.coursera.org/learn/data-science-ethics/home/week/4) (као што су осификација, асиметрија информација и неправедна расподела) који могу убрзати злоупотребу AI.
Ово друго захтева [колаборативне приступе дефинисању култура етике](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) који граде емоционалне везе и доследне заједничке вредности _широм организација_ у индустрији. Ово позива на више [формализованих култура етике података](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) у организацијама - омогућавајући _било коме_
* [Принципи одговорне вештачке интелигенције](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - бесплатан курс за учење од Microsoft Learn.
* [Етика и наука о подацима](https://resources.oreilly.com/examples/0636920203964) - O'Reilly електронска књига (М. Лукидес, Х. Мејсон и др.)
* [Етика у науци о подацима](https://www.coursera.org/learn/data-science-ethics#syllabus) - онлајн курс са Универзитета у Мичигену.
* [Етика без маске](https://ethicsunwrapped.utexas.edu/case-studies) - студије случаја са Универзитета у Тексасу.
# Задатак
[Напишите студију случаја о етици података](assignment.md)
---
**Одрицање од одговорности**:
Овај документ је преведен коришћењем услуге за превођење помоћу вештачке интелигенције [Co-op Translator](https://github.com/Azure/co-op-translator). Иако се трудимо да обезбедимо тачност, молимо вас да имате у виду да аутоматски преводи могу садржати грешке или нетачности. Оригинални документ на његовом изворном језику треба сматрати ауторитативним извором. За критичне информације препоручује се професионални превод од стране људи. Не преузимамо одговорност за било каква погрешна тумачења или неспоразуме који могу настати услед коришћења овог превода.