# Einführung in Datenethik |![ Sketchnote von [(@sketchthedocs)](https://sketchthedocs.dev) ](../../sketchnotes/02-Ethics.png)| |:---:| | Datenethik - _Sketchnote von [@nitya](https://twitter.com/nitya)_ | --- Wir sind alle Datenbürger, die in einer datengetriebenen Welt leben. Markttrends zeigen, dass bis 2022 jede dritte große Organisation ihre Daten über Online-[Marktplätze und Börsen](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) kaufen und verkaufen wird. Als **App-Entwickler** wird es für uns einfacher und günstiger, datengesteuerte Erkenntnisse und algorithmusgesteuerte Automatisierung in den täglichen Nutzererfahrungen zu integrieren. Doch während KI allgegenwärtig wird, müssen wir auch die potenziellen Schäden verstehen, die durch die [Waffenisierung](https://www.youtube.com/watch?v=TQHs8SA1qpk) solcher Algorithmen in großem Maßstab entstehen können. Trends zeigen außerdem, dass wir bis 2025 über [180 Zettabyte](https://www.statista.com/statistics/871513/worldwide-data-created/) an Daten erzeugen und konsumieren werden. Als **Datenwissenschaftler** gibt uns dies beispiellosen Zugang zu persönlichen Daten. Das bedeutet, dass wir Verhaltensprofile von Nutzern erstellen und Entscheidungsprozesse beeinflussen können, die eine [Illusion der freien Wahl](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) schaffen, während wir Nutzer möglicherweise in von uns bevorzugte Richtungen lenken. Dies wirft auch größere Fragen zu Datenschutz und Nutzerrechten auf. Datenethik sind jetzt _notwendige Leitplanken_ für Datenwissenschaft und Ingenieurwesen, die uns helfen, potenzielle Schäden und unbeabsichtigte Konsequenzen unserer datengetriebenen Handlungen zu minimieren. Der [Gartner Hype Cycle für KI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifiziert relevante Trends in digitaler Ethik, verantwortungsvoller KI und KI-Governance als Schlüsseltreiber für größere Megatrends rund um die _Demokratisierung_ und _Industrialisierung_ von KI. ![Gartner's Hype Cycle für KI - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==) In dieser Lektion werden wir den faszinierenden Bereich der Datenethik erkunden – von grundlegenden Konzepten und Herausforderungen bis hin zu Fallstudien und angewandten KI-Konzepten wie Governance – die helfen, eine Ethikkultur in Teams und Organisationen zu etablieren, die mit Daten und KI arbeiten. ## [Quiz vor der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯 ## Grundlegende Definitionen Beginnen wir mit dem Verständnis der grundlegenden Terminologie. Das Wort "Ethik" stammt aus dem [griechischen Wort "ethikos"](https://en.wikipedia.org/wiki/Ethics) (und dessen Wurzel "ethos"), was _Charakter oder moralische Natur_ bedeutet. **Ethik** bezieht sich auf die gemeinsamen Werte und moralischen Prinzipien, die unser Verhalten in der Gesellschaft bestimmen. Ethik basiert nicht auf Gesetzen, sondern auf allgemein akzeptierten Normen dessen, was als "richtig vs. falsch" gilt. Dennoch können ethische Überlegungen Initiativen zur Unternehmensführung und staatliche Vorschriften beeinflussen, die mehr Anreize für die Einhaltung schaffen. **Datenethik** ist ein [neuer Zweig der Ethik](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), der "moralische Probleme im Zusammenhang mit _Daten, Algorithmen und entsprechenden Praktiken_ untersucht und bewertet". Hierbei konzentriert sich **"Daten"** auf Handlungen im Zusammenhang mit Erzeugung, Aufzeichnung, Pflege, Verarbeitung, Verbreitung, Teilen und Nutzung, **"Algorithmen"** auf KI, Agenten, maschinelles Lernen und Roboter, und **"Praktiken"** auf Themen wie verantwortungsvolle Innovation, Programmierung, Hacking und Ethikkodizes. **Angewandte Ethik** ist die [praktische Anwendung moralischer Überlegungen](https://en.wikipedia.org/wiki/Applied_ethics). Es ist der Prozess der aktiven Untersuchung ethischer Fragen im Kontext von _realen Handlungen, Produkten und Prozessen_ und der Ergreifung von Korrekturmaßnahmen, um sicherzustellen, dass diese mit unseren definierten ethischen Werten übereinstimmen. **Ethikkultur** bezieht sich darauf, [_angewandte Ethik zu operationalisieren_](https://hbr.org/2019/05/how-to-design-an-ethical-organization), um sicherzustellen, dass unsere ethischen Prinzipien und Praktiken konsistent und skalierbar in der gesamten Organisation übernommen werden. Erfolgreiche Ethikkulturen definieren organisationsweite ethische Prinzipien, bieten sinnvolle Anreize für die Einhaltung und verstärken Ethiknormen, indem sie gewünschte Verhaltensweisen auf jeder Ebene der Organisation fördern und verstärken. ## Ethikkonzepte In diesem Abschnitt werden wir Konzepte wie **gemeinsame Werte** (Prinzipien) und **ethische Herausforderungen** (Probleme) für Datenethik diskutieren – und **Fallstudien** untersuchen, die Ihnen helfen, diese Konzepte in realen Kontexten zu verstehen. ### 1. Ethische Prinzipien Jede Datenethikstrategie beginnt mit der Definition von _ethischen Prinzipien_ – den "gemeinsamen Werten", die akzeptables Verhalten beschreiben und konforme Handlungen in unseren Daten- und KI-Projekten leiten. Sie können diese auf individueller oder Teamebene definieren. Die meisten großen Organisationen legen diese jedoch in einer _ethischen KI-Missionserklärung_ oder einem Rahmenwerk fest, das auf Unternehmensebene definiert und konsistent über alle Teams hinweg durchgesetzt wird. **Beispiel:** Microsofts [Verantwortungsvolle KI](https://www.microsoft.com/en-us/ai/responsible-ai)-Missionserklärung lautet: _"Wir sind verpflichtet, die Entwicklung von KI voranzutreiben, die von ethischen Prinzipien geleitet wird und den Menschen in den Mittelpunkt stellt"_ – und identifiziert 6 ethische Prinzipien im untenstehenden Rahmenwerk: ![Verantwortungsvolle KI bei Microsoft](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png) Lassen Sie uns diese Prinzipien kurz erkunden. _Transparenz_ und _Verantwortlichkeit_ sind grundlegende Werte, auf denen andere Prinzipien aufbauen – beginnen wir also damit: * [**Verantwortlichkeit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) macht Praktiker _verantwortlich_ für ihre Daten- und KI-Operationen sowie die Einhaltung dieser ethischen Prinzipien. * [**Transparenz**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) stellt sicher, dass Daten- und KI-Handlungen für Nutzer _verständlich_ (interpretierbar) sind und erklärt, was und warum hinter Entscheidungen steckt. * [**Fairness**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) – konzentriert sich darauf, sicherzustellen, dass KI _alle Menschen_ fair behandelt und systemische oder implizite sozio-technische Vorurteile in Daten und Systemen angeht. * [**Zuverlässigkeit & Sicherheit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – stellt sicher, dass KI sich _konsistent_ mit definierten Werten verhält und potenzielle Schäden oder unbeabsichtigte Konsequenzen minimiert. * [**Privatsphäre & Sicherheit**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – bezieht sich auf das Verständnis der Datenherkunft und die Bereitstellung von _Datenschutz und verwandten Schutzmaßnahmen_ für Nutzer. * [**Inklusivität**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) – bezieht sich darauf, KI-Lösungen mit Absicht zu gestalten und sie so anzupassen, dass sie _eine breite Palette menschlicher Bedürfnisse_ und Fähigkeiten erfüllen. > 🚨 Überlegen Sie, was Ihre Datenethik-Missionserklärung sein könnte. Erkunden Sie ethische KI-Rahmenwerke anderer Organisationen – hier sind Beispiele von [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) und [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Welche gemeinsamen Werte haben sie? Wie beziehen sich diese Prinzipien auf das KI-Produkt oder die Branche, in der sie tätig sind? ### 2. Ethische Herausforderungen Sobald wir ethische Prinzipien definiert haben, besteht der nächste Schritt darin, unsere Daten- und KI-Handlungen zu bewerten, um festzustellen, ob sie mit diesen gemeinsamen Werten übereinstimmen. Denken Sie über Ihre Handlungen in zwei Kategorien nach: _Datenerfassung_ und _Algorithmendesign_. Bei der Datenerfassung werden die Handlungen wahrscheinlich **persönliche Daten** oder persönlich identifizierbare Informationen (PII) für identifizierbare lebende Personen umfassen. Dazu gehören [verschiedene Arten nicht-personenbezogener Daten](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en), die _zusammen_ eine Person identifizieren können. Ethische Herausforderungen können sich auf _Datenschutz_, _Datenbesitz_ und verwandte Themen wie _informierte Zustimmung_ und _geistige Eigentumsrechte_ für Nutzer beziehen. Beim Algorithmendesign umfassen die Handlungen das Sammeln und Pflegen von **Datensätzen**, die dann verwendet werden, um **Datenmodelle** zu trainieren und einzusetzen, die Ergebnisse vorhersagen oder Entscheidungen in realen Kontexten automatisieren. Ethische Herausforderungen können sich aus _Datensatzverzerrungen_, _Datenqualitätsproblemen_, _Unfairness_ und _Fehldarstellungen_ in Algorithmen ergeben – einschließlich einiger systemischer Probleme. In beiden Fällen heben ethische Herausforderungen Bereiche hervor, in denen unsere Handlungen möglicherweise mit unseren gemeinsamen Werten in Konflikt geraten. Um diese Bedenken zu erkennen, zu mindern, zu minimieren oder zu beseitigen, müssen wir moralische "Ja/Nein"-Fragen zu unseren Handlungen stellen und gegebenenfalls Korrekturmaßnahmen ergreifen. Schauen wir uns einige ethische Herausforderungen und die moralischen Fragen an, die sie aufwerfen: #### 2.1 Datenbesitz Die Datenerfassung umfasst oft persönliche Daten, die die Datensubjekte identifizieren können. [Datenbesitz](https://permission.io/blog/data-ownership) bezieht sich auf _Kontrolle_ und [_Nutzerrechte_](https://permission.io/blog/data-ownership) im Zusammenhang mit der Erstellung, Verarbeitung und Verbreitung von Daten. Die moralischen Fragen, die wir stellen müssen, sind: * Wer besitzt die Daten? (Nutzer oder Organisation) * Welche Rechte haben Datensubjekte? (z. B. Zugriff, Löschung, Übertragbarkeit) * Welche Rechte haben Organisationen? (z. B. Korrektur böswilliger Nutzerbewertungen) #### 2.2 Informierte Zustimmung [Informierte Zustimmung](https://legaldictionary.net/informed-consent/) definiert die Handlung, bei der Nutzer einer Aktion (wie der Datenerfassung) mit einem _vollständigen Verständnis_ relevanter Fakten einschließlich Zweck, potenzieller Risiken und Alternativen zustimmen. Fragen, die hier zu erkunden sind: * Hat der Nutzer (Datensubjekt) die Erfassung und Nutzung von Daten erlaubt? * Hat der Nutzer den Zweck verstanden, für den die Daten erfasst wurden? * Hat der Nutzer die potenziellen Risiken seiner Teilnahme verstanden? #### 2.3 Geistiges Eigentum [Geistiges Eigentum](https://en.wikipedia.org/wiki/Intellectual_property) bezieht sich auf immaterielle Schöpfungen, die aus menschlicher Initiative resultieren und _wirtschaftlichen Wert_ für Einzelpersonen oder Unternehmen haben können. Fragen, die hier zu erkunden sind: * Hatten die gesammelten Daten wirtschaftlichen Wert für einen Nutzer oder ein Unternehmen? * Hat der **Nutzer** hier geistiges Eigentum? * Hat die **Organisation** hier geistiges Eigentum? * Wenn diese Rechte existieren, wie schützen wir sie? #### 2.4 Datenschutz [Datenschutz](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) oder Informationsschutz bezieht sich auf die Wahrung der Privatsphäre und den Schutz der Identität von Nutzern in Bezug auf persönlich identifizierbare Informationen. Fragen, die hier zu erkunden sind: * Sind die (persönlichen) Daten der Nutzer gegen Hacks und Leaks gesichert? * Sind die Daten der Nutzer nur für autorisierte Nutzer und Kontexte zugänglich? * Wird die Anonymität der Nutzer gewahrt, wenn Daten geteilt oder verbreitet werden? * Kann ein Nutzer aus anonymisierten Datensätzen de-identifiziert werden? #### 2.5 Recht auf Vergessenwerden Das [Recht auf Vergessenwerden](https://en.wikipedia.org/wiki/Right_to_be_forgotten) oder [Recht auf Löschung](https://www.gdpreu.org/right-to-be-forgotten/) bietet Nutzern zusätzlichen Schutz persönlicher Daten. Es gibt ihnen insbesondere das Recht, die Löschung oder Entfernung persönlicher Daten aus Internetsuchen und anderen Orten zu verlangen, _unter bestimmten Umständen_ – und ermöglicht ihnen einen Neuanfang online, ohne dass vergangene Handlungen gegen sie verwendet werden. Fragen, die hier zu erkunden sind: * Ermöglicht das System Datensubjekten, die Löschung zu beantragen? * Sollte der Widerruf der Nutzerzustimmung eine automatisierte Löschung auslösen? * Wurden Daten ohne Zustimmung oder auf rechtswidrige Weise erfasst? * Sind wir konform mit staatlichen Vorschriften zum Datenschutz? #### 2.6 Datensatzverzerrung Datensatz- oder [Erfassungsverzerrung](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) bezieht sich darauf, eine _nicht repräsentative_ Teilmenge von Daten für die Algorithmusentwicklung auszuwählen, was potenzielle Unfairness in den Ergebnissen für verschiedene Gruppen schaffen kann. Arten von Verzerrungen umfassen Auswahl- oder Stichprobenverzerrung, Freiwilligenverzerrung und Instrumentenverzerrung. Fragen, die hier zu erkunden sind: * Haben wir eine repräsentative Gruppe von Datensubjekten rekrutiert? * Haben wir unseren gesammelten oder gepflegten Datensatz auf verschiedene Verzerrungen getestet? * Können wir entdeckte Verzerrungen mindern oder entfernen? #### 2.7 Datenqualität [Datenqualität](https://lakefs.io/data-quality-testing/) untersucht die Validität des gepflegten Datensatzes, der zur Entwicklung unserer Algorithmen verwendet wird, und überprüft, ob Merkmale und Datensätze die Anforderungen an die Genauigkeit und Konsistenz für unseren KI-Zweck erfüllen. Fragen, die hier zu erkunden sind: * Haben wir gültige _Merkmale_ für unseren Anwendungsfall erfasst? * Wurden Daten _konsistent_ über verschiedene Datenquellen hinweg erfasst? * Ist der Datensatz _vollständig_ für verschiedene Bedingungen oder Szenarien? * Wurden Informationen _genau_ erfasst und spiegeln die Realität wider? #### 2.8 Algorithmus-Fairness [Algorithmische Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) überprüft, ob das Design des Algorithmus systematisch bestimmte Untergruppen von Datensubjekten diskriminiert, was zu [potenziellen Schäden](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) in der _Ressourcenzuweisung_ (bei der Ressourcen verweigert oder zurückgehalten werden) und der _Dienstleistungsqualität_ (bei der KI für einige Untergruppen weniger genau ist als für andere) führen kann. Fragen, die hier untersucht werden sollten: * Haben wir die Modellgenauigkeit für verschiedene Untergruppen und Bedingungen bewertet? * Haben wir das System auf potenzielle Schäden (z. B. Stereotypisierung) überprüft? * Können wir Daten überarbeiten oder Modelle neu trainieren, um identifizierte Schäden zu mindern? Erkunden Sie Ressourcen wie [Checklisten zur Fairness von KI](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA), um mehr zu erfahren. #### 2.9 Fehlrepräsentation [Fehlrepräsentation von Daten](https://www.sciencedirect.com/topics/computer-science/misrepresentation) bezieht sich darauf, ob wir Erkenntnisse aus ehrlich berichteten Daten auf täuschende Weise kommunizieren, um eine gewünschte Erzählung zu unterstützen. Fragen, die hier untersucht werden sollten: * Berichten wir unvollständige oder ungenaue Daten? * Visualisieren wir Daten so, dass sie zu irreführenden Schlussfolgerungen führen? * Verwenden wir selektive statistische Techniken, um Ergebnisse zu manipulieren? * Gibt es alternative Erklärungen, die zu einer anderen Schlussfolgerung führen könnten? #### 2.10 Freie Wahl Die [Illusion der freien Wahl](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) tritt auf, wenn "Entscheidungsarchitekturen" eines Systems Algorithmen verwenden, um Menschen dazu zu bewegen, ein bevorzugtes Ergebnis zu wählen, während sie scheinbar Optionen und Kontrolle haben. Diese [dunklen Muster](https://www.darkpatterns.org/) können sozialen und wirtschaftlichen Schaden für Nutzer verursachen. Da Nutzerentscheidungen Verhaltensprofile beeinflussen, können diese Aktionen zukünftige Entscheidungen antreiben, die die Auswirkungen dieser Schäden verstärken oder verlängern. Fragen, die hier untersucht werden sollten: * Hat der Nutzer die Auswirkungen dieser Entscheidung verstanden? * War sich der Nutzer der (alternativen) Optionen und der Vor- und Nachteile jeder bewusst? * Kann der Nutzer eine automatisierte oder beeinflusste Entscheidung später rückgängig machen? ### 3. Fallstudien Um diese ethischen Herausforderungen in realen Kontexten zu betrachten, hilft es, Fallstudien zu untersuchen, die die potenziellen Schäden und Konsequenzen für Einzelpersonen und die Gesellschaft aufzeigen, wenn solche ethischen Verstöße übersehen werden. Hier sind einige Beispiele: | Ethische Herausforderung | Fallstudie | |--- |--- | | **Informierte Zustimmung** | 1972 - [Tuskegee-Syphilis-Studie](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Afroamerikanische Männer, die an der Studie teilnahmen, wurden kostenlose medizinische Versorgung versprochen, _aber von Forschern getäuscht_, die die Teilnehmer nicht über ihre Diagnose oder die Verfügbarkeit von Behandlung informierten. Viele Teilnehmer starben, und Partner oder Kinder waren betroffen; die Studie dauerte 40 Jahre. | | **Datenschutz** | 2007 - Der [Netflix-Datenpreis](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) stellte Forschern _10 Millionen anonymisierte Filmbewertungen von 50.000 Kunden_ zur Verfügung, um Empfehlungsalgorithmen zu verbessern. Forscher konnten jedoch anonymisierte Daten mit persönlich identifizierbaren Daten in _externen Datensätzen_ (z. B. IMDb-Kommentaren) korrelieren und einige Netflix-Abonnenten effektiv "de-anonymisieren".| | **Sammlungsbias** | 2013 - Die Stadt Boston [entwickelte Street Bump](https://www.boston.gov/transportation/street-bump), eine App, mit der Bürger Schlaglöcher melden konnten, um der Stadt bessere Straßendaten zur Verfügung zu stellen. Allerdings hatten [Menschen in einkommensschwächeren Gruppen weniger Zugang zu Autos und Telefonen](https://hbr.org/2013/04/the-hidden-biases-in-big-data), wodurch ihre Straßenprobleme in dieser App unsichtbar blieben. Entwickler arbeiteten mit Akademikern zusammen, um _Fragen des gerechten Zugangs und der digitalen Kluft_ für Fairness zu lösen. | | **Algorithmische Fairness** | 2018 - Die MIT-Studie [Gender Shades](http://gendershades.org/overview.html) bewertete die Genauigkeit von KI-Produkten zur Geschlechtsklassifikation und deckte Lücken in der Genauigkeit für Frauen und farbige Personen auf. Eine [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) schien Frauen weniger Kredit zu gewähren als Männern. Beide Fälle illustrieren Probleme algorithmischer Verzerrungen, die zu sozioökonomischen Schäden führen.| | **Fehlrepräsentation von Daten** | 2020 - Das [Georgia Department of Public Health veröffentlichte COVID-19-Diagramme](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening), die Bürger über Trends bei bestätigten Fällen mit nicht-chronologischer Reihenfolge auf der x-Achse zu täuschen schienen. Dies zeigt Fehlrepräsentation durch Visualisierungstricks. | | **Illusion der freien Wahl** | 2020 - Lern-App [ABCmouse zahlte $10M, um eine FTC-Beschwerde beizulegen](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/), bei der Eltern in Abonnements gefangen waren, die sie nicht kündigen konnten. Dies zeigt dunkle Muster in Entscheidungsarchitekturen, bei denen Nutzer zu potenziell schädlichen Entscheidungen gedrängt wurden. | | **Datenschutz & Nutzerrechte** | 2021 - Facebook [Datenleck](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) enthüllte Daten von 530 Millionen Nutzern, was zu einer $5B-Einigung mit der FTC führte. Es weigerte sich jedoch, die Nutzer über das Leck zu informieren, was die Nutzerrechte in Bezug auf Datentransparenz und -zugang verletzte. | Möchten Sie weitere Fallstudien erkunden? Schauen Sie sich diese Ressourcen an: * [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - ethische Dilemmata in verschiedenen Branchen. * [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - wegweisende Fallstudien untersucht. * [Wo Dinge schiefgelaufen sind](https://deon.drivendata.org/examples/) - Deon-Checkliste mit Beispielen. > 🚨 Denken Sie über die Fallstudien nach, die Sie gesehen haben – haben Sie ähnliche ethische Herausforderungen in Ihrem Leben erlebt oder wurden davon betroffen? Können Sie mindestens eine weitere Fallstudie nennen, die eine der ethischen Herausforderungen illustriert, die wir in diesem Abschnitt besprochen haben? ## Angewandte Ethik Wir haben über ethische Konzepte, Herausforderungen und Fallstudien in realen Kontexten gesprochen. Aber wie beginnen wir mit der _Anwendung_ ethischer Prinzipien und Praktiken in unseren Projekten? Und wie _operationalisieren_ wir diese Praktiken für eine bessere Governance? Lassen Sie uns einige Lösungen aus der Praxis erkunden: ### 1. Berufscodes Berufscodes bieten eine Möglichkeit für Organisationen, Mitglieder zu "motivieren", ihre ethischen Prinzipien und ihre Mission zu unterstützen. Codes sind _moralische Richtlinien_ für berufliches Verhalten, die Mitarbeitern oder Mitgliedern helfen, Entscheidungen zu treffen, die mit den Prinzipien ihrer Organisation übereinstimmen. Sie sind nur so gut wie die freiwillige Einhaltung durch die Mitglieder; viele Organisationen bieten jedoch zusätzliche Belohnungen und Strafen, um die Einhaltung zu fördern. Beispiele: * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (erstellt 2013) * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (seit 1993) > 🚨 Gehören Sie einer professionellen Ingenieur- oder Datenwissenschaftsorganisation an? Erkunden Sie deren Website, um zu sehen, ob sie einen Berufskodex definiert. Was sagt dies über ihre ethischen Prinzipien aus? Wie motivieren sie Mitglieder, den Kodex zu befolgen? ### 2. Ethik-Checklisten Während Berufscodes das erforderliche _ethische Verhalten_ von Praktikern definieren, haben sie [bekannte Einschränkungen](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) bei der Durchsetzung, insbesondere in groß angelegten Projekten. Stattdessen befürworten viele Datenwissenschaftsexperten [Checklisten](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), die **Prinzipien mit Praktiken** auf deterministische und umsetzbare Weise verbinden können. Checklisten wandeln Fragen in "Ja/Nein"-Aufgaben um, die operationalisiert werden können, sodass sie als Teil standardmäßiger Produktfreigabeworkflows verfolgt werden können. Beispiele: * [Deon](https://deon.drivendata.org/) - eine allgemeine Datenethik-Checkliste, erstellt aus [Empfehlungen der Branche](https://deon.drivendata.org/#checklist-citations) mit einem Befehlszeilentool für einfache Integration. * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - bietet allgemeine Leitlinien für Informationshandhabungspraktiken aus rechtlicher und sozialer Perspektive. * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - erstellt von KI-Praktikern, um die Integration von Fairness-Checks in KI-Entwicklungszyklen zu unterstützen. * [22 Fragen zur Ethik in Daten und KI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - ein offeneres Framework, strukturiert für die erste Untersuchung ethischer Fragen in Design-, Implementierungs- und organisatorischen Kontexten. ### 3. Ethik-Regulierungen Ethik bedeutet, gemeinsame Werte zu definieren und das Richtige _freiwillig_ zu tun. **Compliance** bedeutet, _das Gesetz zu befolgen_, falls und wo es definiert ist. **Governance** umfasst allgemein alle Möglichkeiten, wie Organisationen ethische Prinzipien durchsetzen und festgelegte Gesetze einhalten. Heute nimmt Governance in Organisationen zwei Formen an. Erstens geht es darum, **ethische KI**-Prinzipien zu definieren und Praktiken zu etablieren, um die Einführung in allen KI-bezogenen Projekten der Organisation zu operationalisieren. Zweitens geht es darum, alle staatlich vorgeschriebenen **Datenschutzbestimmungen** für die Regionen, in denen sie tätig sind, einzuhalten. Beispiele für Datenschutz- und Privatsphäre-Regulierungen: * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - regelt die Sammlung, Nutzung und Offenlegung persönlicher Informationen durch die _Bundesregierung_. * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - schützt persönliche Gesundheitsdaten. * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - schützt die Datenprivatsphäre von Kindern unter 13 Jahren. * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - bietet Nutzerrechte, Datenschutz und Privatsphäre. * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) gibt Verbrauchern mehr _Rechte_ über ihre (persönlichen) Daten. * `2021`, Chinas [Gesetz zum Schutz persönlicher Informationen](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) wurde gerade verabschiedet und schafft eine der weltweit stärksten Online-Datenschutzbestimmungen. > 🚨 Die von der Europäischen Union definierte Datenschutz-Grundverordnung (GDPR) bleibt eine der einflussreichsten Datenschutzbestimmungen heute. Wussten Sie, dass sie auch [8 Nutzerrechte](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) definiert, um die digitale Privatsphäre und persönlichen Daten der Bürger zu schützen? Erfahren Sie, was diese sind und warum sie wichtig sind. ### 4. Ethikkultur Beachten Sie, dass es eine immaterielle Lücke zwischen _Compliance_ (genug tun, um "den Buchstaben des Gesetzes" zu erfüllen) und der Bewältigung [systemischer Probleme](https://www.coursera.org/learn/data-science-ethics/home/week/4) (wie Versteinerung, Informationsasymmetrie und Verteilungsungerechtigkeit) gibt, die die Waffenfähigkeit von KI beschleunigen können. Letzteres erfordert [kollaborative Ansätze zur Definition von Ethikkulturen](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f), die emotionale Verbindungen und konsistente gemeinsame Werte _über Organisationen hinweg_ in der Branche aufbauen. Dies erfordert mehr [formalisierte Datenethikkulturen](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) in Organisationen – sodass _jeder_ [die Andon-Schnur ziehen](https://en.wikipedia.org/wiki/Andon_(manufacturing)) kann (um ethische Bedenken frühzeitig zu äußern) und _ethische Bewertungen_ (z. B. bei der Einstellung) zu einem Kernkriterium der Teamzusammenstellung in KI-Projekten macht. --- ## [Quiz nach der Vorlesung](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯 ## Überprüfung & Selbststudium Kurse und Bücher helfen, grundlegende ethische Konzepte und Herausforderungen zu verstehen, während Fallstudien und Tools bei der Anwendung ethischer Praktiken in realen Kontexten helfen. Hier sind einige Ressourcen, um zu beginnen: * [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - Lektion über Fairness, von Microsoft. * [Prinzipien der verantwortungsvollen KI](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - kostenloser Lernpfad von Microsoft Learn. * [Ethik und Data Science](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EBook (M. Loukides, H. Mason et. al) * [Ethik in der Datenwissenschaft](https://www.coursera.org/learn/data-science-ethics#syllabus) - Online-Kurs der Universität Michigan. * [Ethik Entfaltet](https://ethicsunwrapped.utexas.edu/case-studies) - Fallstudien der Universität Texas. # Aufgabe [Schreiben Sie eine Fallstudie zur Datenethik](assignment.md) **Haftungsausschluss**: Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.