You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/de/1-Introduction/02-ethics/README.md

30 KiB

Einführung in Datenethik

 Sketchnote von (@sketchthedocs)
Datenethik - Sketchnote von @nitya

Wir sind alle Datenbürger, die in einer datengetriebenen Welt leben.

Markttrends zeigen, dass bis 2022 jede dritte große Organisation ihre Daten über Online-Marktplätze und Börsen kaufen und verkaufen wird. Als App-Entwickler wird es für uns einfacher und günstiger, datengesteuerte Erkenntnisse und algorithmusgesteuerte Automatisierung in den Alltag der Nutzer zu integrieren. Doch je allgegenwärtiger KI wird, desto mehr müssen wir auch die potenziellen Schäden verstehen, die durch die Instrumentalisierung solcher Algorithmen in großem Maßstab entstehen können.

Trends zeigen auch, dass wir bis 2025 über 180 Zettabyte an Daten erstellen und konsumieren werden. Als Datenwissenschaftler gibt uns dies beispiellosen Zugang zu persönlichen Daten. Das bedeutet, dass wir Verhaltensprofile von Nutzern erstellen und Entscheidungsprozesse beeinflussen können, wodurch eine Illusion der freien Wahl entsteht, während Nutzer möglicherweise in von uns bevorzugte Richtungen gelenkt werden. Dies wirft auch größere Fragen zu Datenschutz und Nutzerschutz auf.

Datenethik ist nun ein notwendiges Leitplanken-System für Datenwissenschaft und Ingenieurwesen, das uns hilft, potenzielle Schäden und unbeabsichtigte Konsequenzen unserer datengetriebenen Handlungen zu minimieren. Der Gartner Hype Cycle für KI identifiziert relevante Trends in digitaler Ethik, verantwortungsvoller KI und KI-Governance als Schlüsselfaktoren für größere Megatrends wie die Demokratisierung und Industrialisierung von KI.

Gartner's Hype Cycle für KI - 2020

In dieser Lektion werden wir den faszinierenden Bereich der Datenethik erkunden von grundlegenden Konzepten und Herausforderungen bis hin zu Fallstudien und angewandten KI-Konzepten wie Governance, die dazu beitragen, eine Ethikkultur in Teams und Organisationen zu etablieren, die mit Daten und KI arbeiten.

Quiz vor der Vorlesung 🎯

Grundlegende Definitionen

Beginnen wir mit dem Verständnis der grundlegenden Terminologie.

Das Wort "Ethik" stammt vom griechischen Wort "ethikos" (und seiner Wurzel "ethos") ab, was Charakter oder moralische Natur bedeutet.

Ethik bezieht sich auf die gemeinsamen Werte und moralischen Prinzipien, die unser Verhalten in der Gesellschaft bestimmen. Ethik basiert nicht auf Gesetzen, sondern auf allgemein akzeptierten Normen dessen, was "richtig vs. falsch" ist. Dennoch können ethische Überlegungen Unternehmensführungsinitiativen und staatliche Vorschriften beeinflussen, die mehr Anreize für die Einhaltung schaffen.

Datenethik ist ein neuer Zweig der Ethik, der "moralische Probleme im Zusammenhang mit Daten, Algorithmen und entsprechenden Praktiken untersucht und bewertet". Hierbei konzentrieren sich "Daten" auf Aktionen wie Erzeugung, Aufzeichnung, Kuratierung, Verarbeitung, Verbreitung, Teilen und Nutzung, "Algorithmen" auf KI, Agenten, maschinelles Lernen und Roboter, und "Praktiken" auf Themen wie verantwortungsvolle Innovation, Programmierung, Hacking und Ethikkodizes.

Angewandte Ethik ist die praktische Anwendung moralischer Überlegungen. Es handelt sich um den Prozess der aktiven Untersuchung ethischer Fragen im Kontext von realen Handlungen, Produkten und Prozessen und der Ergreifung von Korrekturmaßnahmen, um sicherzustellen, dass diese mit unseren definierten ethischen Werten übereinstimmen.

Ethikkultur bezieht sich auf das Operationalisieren angewandter Ethik, um sicherzustellen, dass unsere ethischen Prinzipien und Praktiken konsistent und skalierbar in der gesamten Organisation übernommen werden. Erfolgreiche Ethikkulturen definieren organisationsweite ethische Prinzipien, bieten sinnvolle Anreize für die Einhaltung und verstärken ethische Normen, indem sie gewünschte Verhaltensweisen auf allen Ebenen der Organisation fördern und verstärken.

Ethikkonzepte

In diesem Abschnitt werden wir Konzepte wie gemeinsame Werte (Prinzipien) und ethische Herausforderungen (Probleme) für die Datenethik diskutieren und Fallstudien untersuchen, die Ihnen helfen, diese Konzepte in realen Kontexten zu verstehen.

1. Ethische Prinzipien

Jede Datenethikstrategie beginnt mit der Definition von ethischen Prinzipien den "gemeinsamen Werten", die akzeptables Verhalten beschreiben und regelkonforme Handlungen in unseren Daten- und KI-Projekten leiten. Sie können diese auf individueller oder Teamebene definieren. Die meisten großen Organisationen legen diese jedoch in einer Ethik-KI-Missionserklärung oder einem Rahmenwerk fest, das auf Unternehmensebene definiert und konsistent in allen Teams durchgesetzt wird.

Beispiel: Microsofts Verantwortungsvolle KI-Missionserklärung lautet: "Wir verpflichten uns zur Weiterentwicklung von KI, die von ethischen Prinzipien geleitet wird, die den Menschen in den Mittelpunkt stellen" und identifiziert 6 ethische Prinzipien im folgenden Rahmenwerk:

Verantwortungsvolle KI bei Microsoft

Lassen Sie uns diese Prinzipien kurz erkunden. Transparenz und Verantwortlichkeit sind grundlegende Werte, auf denen andere Prinzipien aufbauen beginnen wir also damit:

  • Verantwortlichkeit macht Praktiker verantwortlich für ihre Daten- und KI-Operationen sowie die Einhaltung dieser ethischen Prinzipien.
  • Transparenz stellt sicher, dass Daten- und KI-Aktionen für Nutzer verständlich (interpretierbar) sind und erklärt, was und warum Entscheidungen getroffen werden.
  • Fairness konzentriert sich darauf, sicherzustellen, dass KI alle Menschen fair behandelt und systemische oder implizite sozio-technische Vorurteile in Daten und Systemen angeht.
  • Zuverlässigkeit & Sicherheit stellt sicher, dass KI konsistent mit definierten Werten handelt und potenzielle Schäden oder unbeabsichtigte Konsequenzen minimiert.
  • Datenschutz & Sicherheit bezieht sich auf das Verständnis der Datenherkunft und den Schutz der Datenprivatsphäre und verwandter Rechte der Nutzer.
  • Inklusivität bedeutet, KI-Lösungen mit Absicht zu entwerfen und sie so anzupassen, dass sie eine breite Palette menschlicher Bedürfnisse und Fähigkeiten erfüllen.

🚨 Überlegen Sie, was Ihre Datenethik-Missionserklärung sein könnte. Erkunden Sie ethische KI-Rahmenwerke anderer Organisationen hier sind Beispiele von IBM, Google und Facebook. Welche gemeinsamen Werte haben sie? Wie beziehen sich diese Prinzipien auf das KI-Produkt oder die Branche, in der sie tätig sind?

2. Ethische Herausforderungen

Sobald wir ethische Prinzipien definiert haben, besteht der nächste Schritt darin, unsere Daten- und KI-Aktionen zu bewerten, um zu sehen, ob sie mit diesen gemeinsamen Werten übereinstimmen. Denken Sie über Ihre Aktionen in zwei Kategorien nach: Datenerhebung und Algorithmendesign.

Bei der Datenerhebung werden wahrscheinlich persönliche Daten oder personenbezogene Informationen (PII) für identifizierbare lebende Personen verwendet. Dazu gehören verschiedene Arten nicht-personenbezogener Daten, die zusammen eine Person identifizieren können. Ethische Herausforderungen können sich auf Datenschutz, Datenbesitz und verwandte Themen wie informierte Zustimmung und geistige Eigentumsrechte der Nutzer beziehen.

Beim Algorithmendesign umfassen die Aktionen das Sammeln und Kuratieren von Datensätzen und deren Verwendung zum Trainieren und Bereitstellen von Datenmodellen, die Ergebnisse vorhersagen oder Entscheidungen in realen Kontexten automatisieren. Ethische Herausforderungen können sich aus Datensatzverzerrungen, Datenqualitätsproblemen, Unfairness und Fehldarstellungen in Algorithmen ergeben einschließlich einiger systemischer Probleme.

In beiden Fällen heben ethische Herausforderungen Bereiche hervor, in denen unsere Handlungen möglicherweise mit unseren gemeinsamen Werten in Konflikt geraten. Um diese Bedenken zu erkennen, zu mindern, zu minimieren oder zu beseitigen, müssen wir moralische "Ja/Nein"-Fragen zu unseren Handlungen stellen und gegebenenfalls Korrekturmaßnahmen ergreifen. Schauen wir uns einige ethische Herausforderungen und die moralischen Fragen an, die sie aufwerfen:

2.1 Datenbesitz

Die Datenerhebung umfasst oft persönliche Daten, die die Datensubjekte identifizieren können. Datenbesitz bezieht sich auf Kontrolle und Nutzerrechte in Bezug auf die Erstellung, Verarbeitung und Verbreitung von Daten.

Die moralischen Fragen, die wir stellen müssen, sind:

  • Wem gehören die Daten? (Nutzer oder Organisation)
  • Welche Rechte haben Datensubjekte? (z. B. Zugriff, Löschung, Übertragbarkeit)
  • Welche Rechte haben Organisationen? (z. B. Korrektur böswilliger Nutzerbewertungen)

2.2 Informierte Zustimmung

Informierte Zustimmung definiert die Handlung, bei der Nutzer einer Aktion (wie der Datenerhebung) mit einem vollständigen Verständnis relevanter Fakten einschließlich Zweck, potenzieller Risiken und Alternativen zustimmen.

Fragen, die hier zu untersuchen sind:

  • Hat der Nutzer (Datensubjekt) die Erfassung und Nutzung von Daten genehmigt?
  • Hat der Nutzer den Zweck verstanden, für den die Daten erfasst wurden?
  • Hat der Nutzer die potenziellen Risiken seiner Teilnahme verstanden?

2.3 Geistiges Eigentum

Geistiges Eigentum bezieht sich auf immaterielle Schöpfungen, die aus menschlicher Initiative resultieren und wirtschaftlichen Wert für Einzelpersonen oder Unternehmen haben können.

Fragen, die hier zu untersuchen sind:

  • Hatten die gesammelten Daten wirtschaftlichen Wert für einen Nutzer oder ein Unternehmen?
  • Hat der Nutzer hier geistiges Eigentum?
  • Hat die Organisation hier geistiges Eigentum?
  • Wenn diese Rechte existieren, wie schützen wir sie?

2.4 Datenschutz

Datenschutz oder Informationsschutz bezieht sich auf die Wahrung der Privatsphäre der Nutzer und den Schutz ihrer Identität in Bezug auf personenbezogene Informationen.

Fragen, die hier zu untersuchen sind:

  • Sind die (persönlichen) Daten der Nutzer vor Hacks und Lecks geschützt?
  • Sind die Daten der Nutzer nur autorisierten Nutzern und Kontexten zugänglich?
  • Wird die Anonymität der Nutzer gewahrt, wenn Daten geteilt oder verbreitet werden?
  • Kann ein Nutzer aus anonymisierten Datensätzen de-identifiziert werden?

2.5 Recht auf Vergessenwerden

Das Recht auf Vergessenwerden oder Recht auf Löschung bietet Nutzern zusätzlichen Schutz ihrer persönlichen Daten. Insbesondere gibt es Nutzern das Recht, die Löschung oder Entfernung persönlicher Daten aus Internetsuchen und anderen Orten unter bestimmten Umständen zu verlangen und ihnen so einen Neuanfang online zu ermöglichen, ohne dass vergangene Handlungen gegen sie verwendet werden.

Fragen, die hier zu untersuchen sind:

  • Ermöglicht das System Datensubjekten, die Löschung zu beantragen?
  • Sollte der Widerruf der Zustimmung des Nutzers eine automatisierte Löschung auslösen?
  • Wurden Daten ohne Zustimmung oder auf rechtswidrige Weise erhoben?
  • Sind wir konform mit staatlichen Vorschriften zum Datenschutz?

2.6 Verzerrungen in Datensätzen

Verzerrungen in Datensätzen oder Erhebungsverzerrungen beziehen sich auf die Auswahl eines nicht-repräsentativen Teils von Daten für die Algorithmusentwicklung, was potenzielle Unfairness in den Ergebnissen für verschiedene Gruppen schaffen kann. Arten von Verzerrungen umfassen Auswahl- oder Stichprobenverzerrungen, Freiwilligenverzerrungen und Instrumentenverzerrungen.

Fragen, die hier zu untersuchen sind:

  • Haben wir eine repräsentative Gruppe von Datensubjekten rekrutiert?
  • Haben wir unseren gesammelten oder kuratierten Datensatz auf verschiedene Verzerrungen getestet?
  • Können wir entdeckte Verzerrungen mindern oder entfernen?

2.7 Datenqualität

Datenqualität bezieht sich auf die Gültigkeit des kuratierten Datensatzes, der zur Entwicklung unserer Algorithmen verwendet wird, und überprüft, ob Merkmale und Datensätze die Anforderungen an Genauigkeit und Konsistenz für unseren KI-Zweck erfüllen.

Fragen, die hier zu untersuchen sind:

  • Haben wir gültige Merkmale für unseren Anwendungsfall erfasst?
  • Wurden Daten konsistent über verschiedene Datenquellen hinweg erfasst?
  • Ist der Datensatz vollständig für verschiedene Bedingungen oder Szenarien?
  • Wurden Informationen genau erfasst und spiegeln die Realität wider?

2.8 Algorithmische Fairness

Algorithmische Fairness überprüft, ob das Design des Algorithmus systematisch bestimmte Untergruppen von Datensubjekten diskriminiert, was zu potenziellen Schäden in der Ressourcenverteilung (bei der Ressourcen verweigert oder zurückgehalten werden) und der Dienstleistungsqualität (bei der KI für einige Untergruppen weniger genau ist als für andere) führen kann.

Fragen, die hier untersucht werden sollten:

  • Haben wir die Modellgenauigkeit für verschiedene Untergruppen und Bedingungen bewertet?
  • Haben wir das System auf potenzielle Schäden (z. B. Stereotypisierung) überprüft?
  • Können wir Daten überarbeiten oder Modelle neu trainieren, um identifizierte Schäden zu mindern?

Erkunden Sie Ressourcen wie Checklisten zur Fairness von KI, um mehr zu erfahren.

2.9 Fehlrepräsentation

Fehlrepräsentation von Daten bezieht sich darauf, ob wir Erkenntnisse aus ehrlich berichteten Daten auf eine täuschende Weise kommunizieren, um eine gewünschte Erzählung zu unterstützen.

Fragen, die hier untersucht werden sollten:

  • Berichten wir unvollständige oder ungenaue Daten?
  • Visualisieren wir Daten so, dass irreführende Schlussfolgerungen gezogen werden können?
  • Verwenden wir selektive statistische Techniken, um Ergebnisse zu manipulieren?
  • Gibt es alternative Erklärungen, die zu einer anderen Schlussfolgerung führen könnten?

2.10 Freie Wahl

Die Illusion der freien Wahl tritt auf, wenn "Entscheidungsarchitekturen" eines Systems Algorithmen verwenden, um Menschen dazu zu bewegen, ein bevorzugtes Ergebnis zu wählen, während sie scheinbar Optionen und Kontrolle haben. Diese dunklen Muster können sozialen und wirtschaftlichen Schaden für Nutzer verursachen. Da Nutzerentscheidungen Verhaltensprofile beeinflussen, können diese Aktionen zukünftige Entscheidungen antreiben, die die Auswirkungen dieser Schäden verstärken oder verlängern.

Fragen, die hier untersucht werden sollten:

  • Hat der Nutzer die Auswirkungen seiner Entscheidung verstanden?
  • War sich der Nutzer der (alternativen) Optionen und der Vor- und Nachteile jeder Option bewusst?
  • Kann der Nutzer eine automatisierte oder beeinflusste Entscheidung später rückgängig machen?

3. Fallstudien

Um diese ethischen Herausforderungen in realen Kontexten zu verstehen, hilft es, Fallstudien zu betrachten, die die potenziellen Schäden und Konsequenzen für Einzelpersonen und die Gesellschaft aufzeigen, wenn solche ethischen Verstöße übersehen werden.

Hier einige Beispiele:

Ethische Herausforderung Fallstudie
Informierte Zustimmung 1972 - Tuskegee-Syphilis-Studie - Afroamerikanische Männer, die an der Studie teilnahmen, wurden kostenlose medizinische Versorgung versprochen, aber von Forschern getäuscht, die die Teilnehmer nicht über ihre Diagnose oder die Verfügbarkeit von Behandlung informierten. Viele Teilnehmer starben, und Partner oder Kinder waren betroffen; die Studie dauerte 40 Jahre.
Datenschutz 2007 - Der Netflix-Datenpreis stellte Forschern 10 Millionen anonymisierte Filmbewertungen von 50.000 Kunden zur Verfügung, um Empfehlungsalgorithmen zu verbessern. Forscher konnten jedoch anonymisierte Daten mit persönlich identifizierbaren Daten in externen Datensätzen (z. B. IMDb-Kommentaren) korrelieren und so einige Netflix-Abonnenten effektiv "de-anonymisieren".
Erfassungsbias 2013 - Die Stadt Boston entwickelte Street Bump, eine App, mit der Bürger Schlaglöcher melden konnten, um der Stadt bessere Straßendaten zur Verfügung zu stellen. Allerdings hatten Menschen in einkommensschwächeren Gruppen weniger Zugang zu Autos und Telefonen, wodurch ihre Straßenprobleme in dieser App unsichtbar blieben. Entwickler arbeiteten mit Akademikern zusammen, um Probleme des gerechten Zugangs und der digitalen Kluft für mehr Fairness zu lösen.
Algorithmische Fairness 2018 - Die MIT-Studie Gender Shades bewertete die Genauigkeit von KI-Produkten zur Geschlechtsklassifikation und deckte Lücken in der Genauigkeit für Frauen und farbige Personen auf. Eine 2019 Apple Card schien Frauen weniger Kredit zu gewähren als Männern. Beide Fälle illustrieren Probleme algorithmischer Verzerrungen, die zu sozioökonomischen Schäden führen.
Fehlrepräsentation von Daten 2020 - Das Georgia Department of Public Health veröffentlichte COVID-19-Diagramme, die Bürger über Trends bei bestätigten Fällen mit nicht-chronologischer Anordnung auf der x-Achse irreführen könnten. Dies zeigt Fehlrepräsentation durch Visualisierungstricks.
Illusion der freien Wahl 2020 - Lern-App ABCmouse zahlte $10M, um eine FTC-Beschwerde beizulegen, bei der Eltern in Abonnements gefangen waren, die sie nicht kündigen konnten. Dies zeigt dunkle Muster in Entscheidungsarchitekturen, bei denen Nutzer zu potenziell schädlichen Entscheidungen gedrängt wurden.
Datenschutz & Nutzerrechte 2021 - Facebook Datenleck enthüllte Daten von 530 Millionen Nutzern, was zu einer $5B-Abfindung an die FTC führte. Facebook weigerte sich jedoch, die Nutzer über das Leck zu informieren, was die Nutzerrechte in Bezug auf Datentransparenz und Zugang verletzte.

Möchten Sie weitere Fallstudien erkunden? Schauen Sie sich diese Ressourcen an:

🚨 Denken Sie über die Fallstudien nach, die Sie gesehen haben haben Sie ähnliche ethische Herausforderungen in Ihrem Leben erlebt oder wurden davon betroffen? Können Sie mindestens eine weitere Fallstudie nennen, die eine der ethischen Herausforderungen in diesem Abschnitt illustriert?

Angewandte Ethik

Wir haben über ethische Konzepte, Herausforderungen und Fallstudien in realen Kontexten gesprochen. Aber wie beginnen wir, ethische Prinzipien und Praktiken in unseren Projekten anzuwenden? Und wie operationalisieren wir diese Praktiken für eine bessere Governance? Lassen Sie uns einige Lösungen aus der Praxis erkunden:

1. Berufliche Kodizes

Berufliche Kodizes bieten eine Möglichkeit für Organisationen, Mitglieder zu "motivieren", ihre ethischen Prinzipien und ihre Mission zu unterstützen. Kodizes sind moralische Leitlinien für berufliches Verhalten, die Mitarbeitern oder Mitgliedern helfen, Entscheidungen zu treffen, die mit den Prinzipien ihrer Organisation übereinstimmen. Sie sind nur so gut wie die freiwillige Einhaltung durch die Mitglieder; viele Organisationen bieten jedoch zusätzliche Belohnungen und Strafen, um die Einhaltung zu fördern.

Beispiele:

🚨 Sind Sie Mitglied einer professionellen Ingenieur- oder Datenwissenschaftsorganisation? Erkunden Sie deren Website, um zu sehen, ob sie einen beruflichen Ethikkodex definieren. Was sagt dieser über ihre ethischen Prinzipien aus? Wie motivieren sie Mitglieder, den Kodex zu befolgen?

2. Ethik-Checklisten

Während berufliche Kodizes erforderliches ethisches Verhalten von Praktikern definieren, haben sie bekannte Einschränkungen bei der Durchsetzung, insbesondere in groß angelegten Projekten. Stattdessen befürworten viele Datenwissenschaftsexperten Checklisten, die Prinzipien mit Praktiken auf deterministische und umsetzbare Weise verbinden können.

Checklisten wandeln Fragen in "Ja/Nein"-Aufgaben um, die operationalisiert werden können, sodass sie als Teil standardmäßiger Produktfreigabeworkflows verfolgt werden können.

Beispiele:

  • Deon - eine allgemeine Datenethik-Checkliste, erstellt aus Empfehlungen der Branche mit einem Befehlszeilentool für einfache Integration.
  • Privacy Audit Checklist - bietet allgemeine Leitlinien für Informationshandhabungspraktiken aus rechtlicher und sozialer Perspektive.
  • AI Fairness Checklist - erstellt von KI-Praktikern zur Unterstützung der Integration von Fairness-Checks in KI-Entwicklungszyklen.
  • 22 Fragen zur Ethik in Daten und KI - ein offeneres Framework, strukturiert für die erste Untersuchung ethischer Fragen in Design-, Implementierungs- und organisatorischen Kontexten.

3. Ethik-Regulierungen

Ethik bedeutet, gemeinsame Werte zu definieren und das Richtige freiwillig zu tun. Compliance bedeutet, das Gesetz zu befolgen, wenn und wo es definiert ist. Governance umfasst allgemein alle Möglichkeiten, wie Organisationen ethische Prinzipien durchsetzen und gesetzliche Vorschriften einhalten.

Heute nimmt Governance zwei Formen innerhalb von Organisationen an. Erstens geht es darum, ethische KI-Prinzipien zu definieren und Praktiken zu etablieren, um die Einführung in allen KI-bezogenen Projekten der Organisation zu operationalisieren. Zweitens geht es darum, alle staatlich vorgeschriebenen Datenschutzvorschriften für die Regionen, in denen sie tätig sind, einzuhalten.

Beispiele für Datenschutz- und Privatsphäre-Regulierungen:

🚨 Die von der Europäischen Union definierte Datenschutz-Grundverordnung (GDPR) bleibt eine der einflussreichsten Datenschutzvorschriften heute. Wussten Sie, dass sie auch 8 Nutzerrechte definiert, um die digitale Privatsphäre und persönlichen Daten der Bürger zu schützen? Informieren Sie sich darüber, was diese sind und warum sie wichtig sind.

4. Ethikkultur

Beachten Sie, dass es eine immaterielle Lücke zwischen Compliance (genug tun, um "den Buchstaben des Gesetzes" zu erfüllen) und der Bewältigung systemischer Probleme (wie Versteinerung, Informationsasymmetrie und Verteilungsungerechtigkeit) gibt, die die Waffenfähigkeit von KI beschleunigen können.

Letzteres erfordert kollaborative Ansätze zur Definition von Ethikkulturen, die emotionale Verbindungen und konsistente gemeinsame Werte über Organisationen hinweg in der Branche schaffen. Dies erfordert mehr formalisierte Datenethikkulturen in Organisationen sodass jeder die Andon-Schnur ziehen kann (um ethische Bedenken frühzeitig zu äußern) und ethische Bewertungen (z. B. bei der Einstellung) ein Kernkriterium für die Teamzusammenstellung in KI-Projekten werden.


Quiz nach der Vorlesung 🎯

Überprüfung & Selbststudium

Kurse und Bücher helfen, grundlegende Ethikkonzepte und Herausforderungen zu verstehen, während Fallstudien und Tools bei der Anwendung ethischer Praktiken in realen Kontexten helfen. Hier sind einige Ressourcen für den Einstieg:

Aufgabe

Schreiben Sie eine Fallstudie zur Datenethik


Haftungsausschluss:
Dieses Dokument wurde mit dem KI-Übersetzungsdienst Co-op Translator übersetzt. Obwohl wir uns um Genauigkeit bemühen, weisen wir darauf hin, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für kritische Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben.