You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/de/1-Introduction/02-ethics/README.md

30 KiB

Einführung in Datenethik

 Sketchnote von (@sketchthedocs)
Datenethik - Sketchnote von @nitya

Wir sind alle Datenbürger, die in einer datengetriebenen Welt leben.

Markttrends zeigen, dass bis 2022 jede dritte große Organisation ihre Daten über Online-Marktplätze und Börsen kaufen und verkaufen wird. Als App-Entwickler wird es für uns einfacher und günstiger, datengesteuerte Erkenntnisse und algorithmusgesteuerte Automatisierung in den täglichen Nutzererfahrungen zu integrieren. Doch während KI allgegenwärtig wird, müssen wir auch die potenziellen Schäden verstehen, die durch die Waffenisierung solcher Algorithmen in großem Maßstab entstehen können.

Trends zeigen außerdem, dass wir bis 2025 über 180 Zettabyte an Daten erzeugen und konsumieren werden. Als Datenwissenschaftler gibt uns dies beispiellosen Zugang zu persönlichen Daten. Das bedeutet, dass wir Verhaltensprofile von Nutzern erstellen und Entscheidungsprozesse beeinflussen können, die eine Illusion der freien Wahl schaffen, während wir Nutzer möglicherweise in von uns bevorzugte Richtungen lenken. Dies wirft auch größere Fragen zu Datenschutz und Nutzerrechten auf.

Datenethik sind jetzt notwendige Leitplanken für Datenwissenschaft und Ingenieurwesen, die uns helfen, potenzielle Schäden und unbeabsichtigte Konsequenzen unserer datengetriebenen Handlungen zu minimieren. Der Gartner Hype Cycle für KI identifiziert relevante Trends in digitaler Ethik, verantwortungsvoller KI und KI-Governance als Schlüsseltreiber für größere Megatrends rund um die Demokratisierung und Industrialisierung von KI.

Gartner's Hype Cycle für KI - 2020

In dieser Lektion werden wir den faszinierenden Bereich der Datenethik erkunden von grundlegenden Konzepten und Herausforderungen bis hin zu Fallstudien und angewandten KI-Konzepten wie Governance die helfen, eine Ethikkultur in Teams und Organisationen zu etablieren, die mit Daten und KI arbeiten.

Quiz vor der Vorlesung 🎯

Grundlegende Definitionen

Beginnen wir mit dem Verständnis der grundlegenden Terminologie.

Das Wort "Ethik" stammt aus dem griechischen Wort "ethikos" (und dessen Wurzel "ethos"), was Charakter oder moralische Natur bedeutet.

Ethik bezieht sich auf die gemeinsamen Werte und moralischen Prinzipien, die unser Verhalten in der Gesellschaft bestimmen. Ethik basiert nicht auf Gesetzen, sondern auf allgemein akzeptierten Normen dessen, was als "richtig vs. falsch" gilt. Dennoch können ethische Überlegungen Initiativen zur Unternehmensführung und staatliche Vorschriften beeinflussen, die mehr Anreize für die Einhaltung schaffen.

Datenethik ist ein neuer Zweig der Ethik, der "moralische Probleme im Zusammenhang mit Daten, Algorithmen und entsprechenden Praktiken untersucht und bewertet". Hierbei konzentriert sich "Daten" auf Handlungen im Zusammenhang mit Erzeugung, Aufzeichnung, Pflege, Verarbeitung, Verbreitung, Teilen und Nutzung, "Algorithmen" auf KI, Agenten, maschinelles Lernen und Roboter, und "Praktiken" auf Themen wie verantwortungsvolle Innovation, Programmierung, Hacking und Ethikkodizes.

Angewandte Ethik ist die praktische Anwendung moralischer Überlegungen. Es ist der Prozess der aktiven Untersuchung ethischer Fragen im Kontext von realen Handlungen, Produkten und Prozessen und der Ergreifung von Korrekturmaßnahmen, um sicherzustellen, dass diese mit unseren definierten ethischen Werten übereinstimmen.

Ethikkultur bezieht sich darauf, angewandte Ethik zu operationalisieren, um sicherzustellen, dass unsere ethischen Prinzipien und Praktiken konsistent und skalierbar in der gesamten Organisation übernommen werden. Erfolgreiche Ethikkulturen definieren organisationsweite ethische Prinzipien, bieten sinnvolle Anreize für die Einhaltung und verstärken Ethiknormen, indem sie gewünschte Verhaltensweisen auf jeder Ebene der Organisation fördern und verstärken.

Ethikkonzepte

In diesem Abschnitt werden wir Konzepte wie gemeinsame Werte (Prinzipien) und ethische Herausforderungen (Probleme) für Datenethik diskutieren und Fallstudien untersuchen, die Ihnen helfen, diese Konzepte in realen Kontexten zu verstehen.

1. Ethische Prinzipien

Jede Datenethikstrategie beginnt mit der Definition von ethischen Prinzipien den "gemeinsamen Werten", die akzeptables Verhalten beschreiben und konforme Handlungen in unseren Daten- und KI-Projekten leiten. Sie können diese auf individueller oder Teamebene definieren. Die meisten großen Organisationen legen diese jedoch in einer ethischen KI-Missionserklärung oder einem Rahmenwerk fest, das auf Unternehmensebene definiert und konsistent über alle Teams hinweg durchgesetzt wird.

Beispiel: Microsofts Verantwortungsvolle KI-Missionserklärung lautet: "Wir sind verpflichtet, die Entwicklung von KI voranzutreiben, die von ethischen Prinzipien geleitet wird und den Menschen in den Mittelpunkt stellt" und identifiziert 6 ethische Prinzipien im untenstehenden Rahmenwerk:

Verantwortungsvolle KI bei Microsoft

Lassen Sie uns diese Prinzipien kurz erkunden. Transparenz und Verantwortlichkeit sind grundlegende Werte, auf denen andere Prinzipien aufbauen beginnen wir also damit:

  • Verantwortlichkeit macht Praktiker verantwortlich für ihre Daten- und KI-Operationen sowie die Einhaltung dieser ethischen Prinzipien.
  • Transparenz stellt sicher, dass Daten- und KI-Handlungen für Nutzer verständlich (interpretierbar) sind und erklärt, was und warum hinter Entscheidungen steckt.
  • Fairness konzentriert sich darauf, sicherzustellen, dass KI alle Menschen fair behandelt und systemische oder implizite sozio-technische Vorurteile in Daten und Systemen angeht.
  • Zuverlässigkeit & Sicherheit stellt sicher, dass KI sich konsistent mit definierten Werten verhält und potenzielle Schäden oder unbeabsichtigte Konsequenzen minimiert.
  • Privatsphäre & Sicherheit bezieht sich auf das Verständnis der Datenherkunft und die Bereitstellung von Datenschutz und verwandten Schutzmaßnahmen für Nutzer.
  • Inklusivität bezieht sich darauf, KI-Lösungen mit Absicht zu gestalten und sie so anzupassen, dass sie eine breite Palette menschlicher Bedürfnisse und Fähigkeiten erfüllen.

🚨 Überlegen Sie, was Ihre Datenethik-Missionserklärung sein könnte. Erkunden Sie ethische KI-Rahmenwerke anderer Organisationen hier sind Beispiele von IBM, Google und Facebook. Welche gemeinsamen Werte haben sie? Wie beziehen sich diese Prinzipien auf das KI-Produkt oder die Branche, in der sie tätig sind?

2. Ethische Herausforderungen

Sobald wir ethische Prinzipien definiert haben, besteht der nächste Schritt darin, unsere Daten- und KI-Handlungen zu bewerten, um festzustellen, ob sie mit diesen gemeinsamen Werten übereinstimmen. Denken Sie über Ihre Handlungen in zwei Kategorien nach: Datenerfassung und Algorithmendesign.

Bei der Datenerfassung werden die Handlungen wahrscheinlich persönliche Daten oder persönlich identifizierbare Informationen (PII) für identifizierbare lebende Personen umfassen. Dazu gehören verschiedene Arten nicht-personenbezogener Daten, die zusammen eine Person identifizieren können. Ethische Herausforderungen können sich auf Datenschutz, Datenbesitz und verwandte Themen wie informierte Zustimmung und geistige Eigentumsrechte für Nutzer beziehen.

Beim Algorithmendesign umfassen die Handlungen das Sammeln und Pflegen von Datensätzen, die dann verwendet werden, um Datenmodelle zu trainieren und einzusetzen, die Ergebnisse vorhersagen oder Entscheidungen in realen Kontexten automatisieren. Ethische Herausforderungen können sich aus Datensatzverzerrungen, Datenqualitätsproblemen, Unfairness und Fehldarstellungen in Algorithmen ergeben einschließlich einiger systemischer Probleme.

In beiden Fällen heben ethische Herausforderungen Bereiche hervor, in denen unsere Handlungen möglicherweise mit unseren gemeinsamen Werten in Konflikt geraten. Um diese Bedenken zu erkennen, zu mindern, zu minimieren oder zu beseitigen, müssen wir moralische "Ja/Nein"-Fragen zu unseren Handlungen stellen und gegebenenfalls Korrekturmaßnahmen ergreifen. Schauen wir uns einige ethische Herausforderungen und die moralischen Fragen an, die sie aufwerfen:

2.1 Datenbesitz

Die Datenerfassung umfasst oft persönliche Daten, die die Datensubjekte identifizieren können. Datenbesitz bezieht sich auf Kontrolle und Nutzerrechte im Zusammenhang mit der Erstellung, Verarbeitung und Verbreitung von Daten.

Die moralischen Fragen, die wir stellen müssen, sind:

  • Wer besitzt die Daten? (Nutzer oder Organisation)
  • Welche Rechte haben Datensubjekte? (z. B. Zugriff, Löschung, Übertragbarkeit)
  • Welche Rechte haben Organisationen? (z. B. Korrektur böswilliger Nutzerbewertungen)

2.2 Informierte Zustimmung

Informierte Zustimmung definiert die Handlung, bei der Nutzer einer Aktion (wie der Datenerfassung) mit einem vollständigen Verständnis relevanter Fakten einschließlich Zweck, potenzieller Risiken und Alternativen zustimmen.

Fragen, die hier zu erkunden sind:

  • Hat der Nutzer (Datensubjekt) die Erfassung und Nutzung von Daten erlaubt?
  • Hat der Nutzer den Zweck verstanden, für den die Daten erfasst wurden?
  • Hat der Nutzer die potenziellen Risiken seiner Teilnahme verstanden?

2.3 Geistiges Eigentum

Geistiges Eigentum bezieht sich auf immaterielle Schöpfungen, die aus menschlicher Initiative resultieren und wirtschaftlichen Wert für Einzelpersonen oder Unternehmen haben können.

Fragen, die hier zu erkunden sind:

  • Hatten die gesammelten Daten wirtschaftlichen Wert für einen Nutzer oder ein Unternehmen?
  • Hat der Nutzer hier geistiges Eigentum?
  • Hat die Organisation hier geistiges Eigentum?
  • Wenn diese Rechte existieren, wie schützen wir sie?

2.4 Datenschutz

Datenschutz oder Informationsschutz bezieht sich auf die Wahrung der Privatsphäre und den Schutz der Identität von Nutzern in Bezug auf persönlich identifizierbare Informationen.

Fragen, die hier zu erkunden sind:

  • Sind die (persönlichen) Daten der Nutzer gegen Hacks und Leaks gesichert?
  • Sind die Daten der Nutzer nur für autorisierte Nutzer und Kontexte zugänglich?
  • Wird die Anonymität der Nutzer gewahrt, wenn Daten geteilt oder verbreitet werden?
  • Kann ein Nutzer aus anonymisierten Datensätzen de-identifiziert werden?

2.5 Recht auf Vergessenwerden

Das Recht auf Vergessenwerden oder Recht auf Löschung bietet Nutzern zusätzlichen Schutz persönlicher Daten. Es gibt ihnen insbesondere das Recht, die Löschung oder Entfernung persönlicher Daten aus Internetsuchen und anderen Orten zu verlangen, unter bestimmten Umständen und ermöglicht ihnen einen Neuanfang online, ohne dass vergangene Handlungen gegen sie verwendet werden.

Fragen, die hier zu erkunden sind:

  • Ermöglicht das System Datensubjekten, die Löschung zu beantragen?
  • Sollte der Widerruf der Nutzerzustimmung eine automatisierte Löschung auslösen?
  • Wurden Daten ohne Zustimmung oder auf rechtswidrige Weise erfasst?
  • Sind wir konform mit staatlichen Vorschriften zum Datenschutz?

2.6 Datensatzverzerrung

Datensatz- oder Erfassungsverzerrung bezieht sich darauf, eine nicht repräsentative Teilmenge von Daten für die Algorithmusentwicklung auszuwählen, was potenzielle Unfairness in den Ergebnissen für verschiedene Gruppen schaffen kann. Arten von Verzerrungen umfassen Auswahl- oder Stichprobenverzerrung, Freiwilligenverzerrung und Instrumentenverzerrung.

Fragen, die hier zu erkunden sind:

  • Haben wir eine repräsentative Gruppe von Datensubjekten rekrutiert?
  • Haben wir unseren gesammelten oder gepflegten Datensatz auf verschiedene Verzerrungen getestet?
  • Können wir entdeckte Verzerrungen mindern oder entfernen?

2.7 Datenqualität

Datenqualität untersucht die Validität des gepflegten Datensatzes, der zur Entwicklung unserer Algorithmen verwendet wird, und überprüft, ob Merkmale und Datensätze die Anforderungen an die Genauigkeit und Konsistenz für unseren KI-Zweck erfüllen.

Fragen, die hier zu erkunden sind:

  • Haben wir gültige Merkmale für unseren Anwendungsfall erfasst?
  • Wurden Daten konsistent über verschiedene Datenquellen hinweg erfasst?
  • Ist der Datensatz vollständig für verschiedene Bedingungen oder Szenarien?
  • Wurden Informationen genau erfasst und spiegeln die Realität wider?

2.8 Algorithmus-Fairness

Algorithmische Fairness überprüft, ob das Design des Algorithmus systematisch bestimmte Untergruppen von Datensubjekten diskriminiert, was zu potenziellen Schäden in der Ressourcenzuweisung (bei der Ressourcen verweigert oder zurückgehalten werden) und der Dienstleistungsqualität (bei der KI für einige Untergruppen weniger genau ist als für andere) führen kann.

Fragen, die hier untersucht werden sollten:

  • Haben wir die Modellgenauigkeit für verschiedene Untergruppen und Bedingungen bewertet?
  • Haben wir das System auf potenzielle Schäden (z. B. Stereotypisierung) überprüft?
  • Können wir Daten überarbeiten oder Modelle neu trainieren, um identifizierte Schäden zu mindern?

Erkunden Sie Ressourcen wie Checklisten zur Fairness von KI, um mehr zu erfahren.

2.9 Fehlrepräsentation

Fehlrepräsentation von Daten bezieht sich darauf, ob wir Erkenntnisse aus ehrlich berichteten Daten auf täuschende Weise kommunizieren, um eine gewünschte Erzählung zu unterstützen.

Fragen, die hier untersucht werden sollten:

  • Berichten wir unvollständige oder ungenaue Daten?
  • Visualisieren wir Daten so, dass sie zu irreführenden Schlussfolgerungen führen?
  • Verwenden wir selektive statistische Techniken, um Ergebnisse zu manipulieren?
  • Gibt es alternative Erklärungen, die zu einer anderen Schlussfolgerung führen könnten?

2.10 Freie Wahl

Die Illusion der freien Wahl tritt auf, wenn "Entscheidungsarchitekturen" eines Systems Algorithmen verwenden, um Menschen dazu zu bewegen, ein bevorzugtes Ergebnis zu wählen, während sie scheinbar Optionen und Kontrolle haben. Diese dunklen Muster können sozialen und wirtschaftlichen Schaden für Nutzer verursachen. Da Nutzerentscheidungen Verhaltensprofile beeinflussen, können diese Aktionen zukünftige Entscheidungen antreiben, die die Auswirkungen dieser Schäden verstärken oder verlängern.

Fragen, die hier untersucht werden sollten:

  • Hat der Nutzer die Auswirkungen dieser Entscheidung verstanden?
  • War sich der Nutzer der (alternativen) Optionen und der Vor- und Nachteile jeder bewusst?
  • Kann der Nutzer eine automatisierte oder beeinflusste Entscheidung später rückgängig machen?

3. Fallstudien

Um diese ethischen Herausforderungen in realen Kontexten zu betrachten, hilft es, Fallstudien zu untersuchen, die die potenziellen Schäden und Konsequenzen für Einzelpersonen und die Gesellschaft aufzeigen, wenn solche ethischen Verstöße übersehen werden.

Hier sind einige Beispiele:

Ethische Herausforderung Fallstudie
Informierte Zustimmung 1972 - Tuskegee-Syphilis-Studie - Afroamerikanische Männer, die an der Studie teilnahmen, wurden kostenlose medizinische Versorgung versprochen, aber von Forschern getäuscht, die die Teilnehmer nicht über ihre Diagnose oder die Verfügbarkeit von Behandlung informierten. Viele Teilnehmer starben, und Partner oder Kinder waren betroffen; die Studie dauerte 40 Jahre.
Datenschutz 2007 - Der Netflix-Datenpreis stellte Forschern 10 Millionen anonymisierte Filmbewertungen von 50.000 Kunden zur Verfügung, um Empfehlungsalgorithmen zu verbessern. Forscher konnten jedoch anonymisierte Daten mit persönlich identifizierbaren Daten in externen Datensätzen (z. B. IMDb-Kommentaren) korrelieren und einige Netflix-Abonnenten effektiv "de-anonymisieren".
Sammlungsbias 2013 - Die Stadt Boston entwickelte Street Bump, eine App, mit der Bürger Schlaglöcher melden konnten, um der Stadt bessere Straßendaten zur Verfügung zu stellen. Allerdings hatten Menschen in einkommensschwächeren Gruppen weniger Zugang zu Autos und Telefonen, wodurch ihre Straßenprobleme in dieser App unsichtbar blieben. Entwickler arbeiteten mit Akademikern zusammen, um Fragen des gerechten Zugangs und der digitalen Kluft für Fairness zu lösen.
Algorithmische Fairness 2018 - Die MIT-Studie Gender Shades bewertete die Genauigkeit von KI-Produkten zur Geschlechtsklassifikation und deckte Lücken in der Genauigkeit für Frauen und farbige Personen auf. Eine 2019 Apple Card schien Frauen weniger Kredit zu gewähren als Männern. Beide Fälle illustrieren Probleme algorithmischer Verzerrungen, die zu sozioökonomischen Schäden führen.
Fehlrepräsentation von Daten 2020 - Das Georgia Department of Public Health veröffentlichte COVID-19-Diagramme, die Bürger über Trends bei bestätigten Fällen mit nicht-chronologischer Reihenfolge auf der x-Achse zu täuschen schienen. Dies zeigt Fehlrepräsentation durch Visualisierungstricks.
Illusion der freien Wahl 2020 - Lern-App ABCmouse zahlte $10M, um eine FTC-Beschwerde beizulegen, bei der Eltern in Abonnements gefangen waren, die sie nicht kündigen konnten. Dies zeigt dunkle Muster in Entscheidungsarchitekturen, bei denen Nutzer zu potenziell schädlichen Entscheidungen gedrängt wurden.
Datenschutz & Nutzerrechte 2021 - Facebook Datenleck enthüllte Daten von 530 Millionen Nutzern, was zu einer $5B-Einigung mit der FTC führte. Es weigerte sich jedoch, die Nutzer über das Leck zu informieren, was die Nutzerrechte in Bezug auf Datentransparenz und -zugang verletzte.

Möchten Sie weitere Fallstudien erkunden? Schauen Sie sich diese Ressourcen an:

🚨 Denken Sie über die Fallstudien nach, die Sie gesehen haben haben Sie ähnliche ethische Herausforderungen in Ihrem Leben erlebt oder wurden davon betroffen? Können Sie mindestens eine weitere Fallstudie nennen, die eine der ethischen Herausforderungen illustriert, die wir in diesem Abschnitt besprochen haben?

Angewandte Ethik

Wir haben über ethische Konzepte, Herausforderungen und Fallstudien in realen Kontexten gesprochen. Aber wie beginnen wir mit der Anwendung ethischer Prinzipien und Praktiken in unseren Projekten? Und wie operationalisieren wir diese Praktiken für eine bessere Governance? Lassen Sie uns einige Lösungen aus der Praxis erkunden:

1. Berufscodes

Berufscodes bieten eine Möglichkeit für Organisationen, Mitglieder zu "motivieren", ihre ethischen Prinzipien und ihre Mission zu unterstützen. Codes sind moralische Richtlinien für berufliches Verhalten, die Mitarbeitern oder Mitgliedern helfen, Entscheidungen zu treffen, die mit den Prinzipien ihrer Organisation übereinstimmen. Sie sind nur so gut wie die freiwillige Einhaltung durch die Mitglieder; viele Organisationen bieten jedoch zusätzliche Belohnungen und Strafen, um die Einhaltung zu fördern.

Beispiele:

🚨 Gehören Sie einer professionellen Ingenieur- oder Datenwissenschaftsorganisation an? Erkunden Sie deren Website, um zu sehen, ob sie einen Berufskodex definiert. Was sagt dies über ihre ethischen Prinzipien aus? Wie motivieren sie Mitglieder, den Kodex zu befolgen?

2. Ethik-Checklisten

Während Berufscodes das erforderliche ethische Verhalten von Praktikern definieren, haben sie bekannte Einschränkungen bei der Durchsetzung, insbesondere in groß angelegten Projekten. Stattdessen befürworten viele Datenwissenschaftsexperten Checklisten, die Prinzipien mit Praktiken auf deterministische und umsetzbare Weise verbinden können.

Checklisten wandeln Fragen in "Ja/Nein"-Aufgaben um, die operationalisiert werden können, sodass sie als Teil standardmäßiger Produktfreigabeworkflows verfolgt werden können.

Beispiele:

  • Deon - eine allgemeine Datenethik-Checkliste, erstellt aus Empfehlungen der Branche mit einem Befehlszeilentool für einfache Integration.
  • Privacy Audit Checklist - bietet allgemeine Leitlinien für Informationshandhabungspraktiken aus rechtlicher und sozialer Perspektive.
  • AI Fairness Checklist - erstellt von KI-Praktikern, um die Integration von Fairness-Checks in KI-Entwicklungszyklen zu unterstützen.
  • 22 Fragen zur Ethik in Daten und KI - ein offeneres Framework, strukturiert für die erste Untersuchung ethischer Fragen in Design-, Implementierungs- und organisatorischen Kontexten.

3. Ethik-Regulierungen

Ethik bedeutet, gemeinsame Werte zu definieren und das Richtige freiwillig zu tun. Compliance bedeutet, das Gesetz zu befolgen, falls und wo es definiert ist. Governance umfasst allgemein alle Möglichkeiten, wie Organisationen ethische Prinzipien durchsetzen und festgelegte Gesetze einhalten.

Heute nimmt Governance in Organisationen zwei Formen an. Erstens geht es darum, ethische KI-Prinzipien zu definieren und Praktiken zu etablieren, um die Einführung in allen KI-bezogenen Projekten der Organisation zu operationalisieren. Zweitens geht es darum, alle staatlich vorgeschriebenen Datenschutzbestimmungen für die Regionen, in denen sie tätig sind, einzuhalten.

Beispiele für Datenschutz- und Privatsphäre-Regulierungen:

🚨 Die von der Europäischen Union definierte Datenschutz-Grundverordnung (GDPR) bleibt eine der einflussreichsten Datenschutzbestimmungen heute. Wussten Sie, dass sie auch 8 Nutzerrechte definiert, um die digitale Privatsphäre und persönlichen Daten der Bürger zu schützen? Erfahren Sie, was diese sind und warum sie wichtig sind.

4. Ethikkultur

Beachten Sie, dass es eine immaterielle Lücke zwischen Compliance (genug tun, um "den Buchstaben des Gesetzes" zu erfüllen) und der Bewältigung systemischer Probleme (wie Versteinerung, Informationsasymmetrie und Verteilungsungerechtigkeit) gibt, die die Waffenfähigkeit von KI beschleunigen können.

Letzteres erfordert kollaborative Ansätze zur Definition von Ethikkulturen, die emotionale Verbindungen und konsistente gemeinsame Werte über Organisationen hinweg in der Branche aufbauen. Dies erfordert mehr formalisierte Datenethikkulturen in Organisationen sodass jeder die Andon-Schnur ziehen kann (um ethische Bedenken frühzeitig zu äußern) und ethische Bewertungen (z. B. bei der Einstellung) zu einem Kernkriterium der Teamzusammenstellung in KI-Projekten macht.


Quiz nach der Vorlesung 🎯

Überprüfung & Selbststudium

Kurse und Bücher helfen, grundlegende ethische Konzepte und Herausforderungen zu verstehen, während Fallstudien und Tools bei der Anwendung ethischer Praktiken in realen Kontexten helfen. Hier sind einige Ressourcen, um zu beginnen:

Aufgabe

Schreiben Sie eine Fallstudie zur Datenethik

Haftungsausschluss:
Dieses Dokument wurde mit dem KI-Übersetzungsdienst Co-op Translator übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.