You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/he/1-Introduction/02-ethics/README.md

35 KiB

מבוא לאתיקה של נתונים

 סקיצה מאת (@sketchthedocs)
אתיקה במדעי הנתונים - סקיצה מאת @nitya

כולנו אזרחים של נתונים החיים בעולם מבוסס נתונים.

מגמות השוק מראות שעד שנת 2022, אחת מתוך שלוש ארגונים גדולים תקנה ותמכור את הנתונים שלה דרך שווקים ומרכזי מסחר מקוונים. בתור מפתחי אפליקציות, יהיה לנו קל וזול יותר לשלב תובנות מבוססות נתונים ואוטומציה מבוססת אלגוריתמים בחוויות היומיום של המשתמשים. אך ככל שהבינה המלאכותית הופכת לנפוצה, נצטרך גם להבין את הנזקים הפוטנציאליים הנגרמים משימוש לרעה באלגוריתמים כאלה בקנה מידה רחב.

מגמות נוספות מצביעות על כך שניצור ונצרוך מעל 180 זטה-בייטים של נתונים עד שנת 2025. בתור מדעני נתונים, זה מעניק לנו רמות חסרות תקדים של גישה לנתונים אישיים. המשמעות היא שנוכל לבנות פרופילים התנהגותיים של משתמשים ולהשפיע על קבלת ההחלטות בדרכים שיוצרות אשליה של בחירה חופשית, תוך כדי דחיפת המשתמשים לתוצאות שאנחנו מעדיפים. זה גם מעלה שאלות רחבות יותר על פרטיות נתונים והגנה על משתמשים.

אתיקה של נתונים היא כיום מעקה בטיחות הכרחי למדעי הנתונים וההנדסה, המסייעת לנו למזער נזקים פוטנציאליים ותוצאות בלתי צפויות מפעולות מבוססות נתונים. מעגל ההייפ של גרטנר עבור AI מזהה מגמות רלוונטיות באתיקה דיגיטלית, AI אחראי, וממשל AI כגורמים מרכזיים למגמות רחבות יותר סביב דמוקרטיזציה ויעוש_ של AI.

מעגל ההייפ של גרטנר עבור AI - 2020

בשיעור זה, נחקור את התחום המרתק של אתיקה של נתונים - החל ממושגים ואתגרים מרכזיים, דרך מחקרי מקרה ועד מושגים יישומיים כמו ממשל AI - המסייעים לבסס תרבות אתית בצוותים ובארגונים העובדים עם נתונים ו-AI.

שאלון לפני השיעור 🎯

הגדרות בסיסיות

נתחיל בהבנת המונחים הבסיסיים.

המילה "אתיקה" מגיעה מהמילה היוונית "ethikos" (ושורשה "ethos") שמשמעותה אופי או טבע מוסרי.

אתיקה עוסקת בערכים משותפים ועקרונות מוסריים שמנחים את ההתנהגות שלנו בחברה. אתיקה מבוססת לא על חוקים אלא על נורמות מקובלות של מה "נכון מול לא נכון". עם זאת, שיקולים אתיים יכולים להשפיע על יוזמות ממשל תאגידי ורגולציות ממשלתיות שיוצרות תמריצים נוספים לציות.

אתיקה של נתונים היא ענף חדש של אתיקה שחוקר ומעריך בעיות מוסריות הקשורות ל_נתונים, אלגוריתמים ופרקטיקות נלוות_. כאן, "נתונים" מתמקדים בפעולות הקשורות ליצירה, רישום, אצירה, עיבוד, הפצה, שיתוף ושימוש; "אלגוריתמים" מתמקדים ב-AI, סוכנים, למידת מכונה ורובוטים; ו**"פרקטיקות"** מתמקדות בנושאים כמו חדשנות אחראית, תכנות, פריצה וקודי אתיקה.

אתיקה יישומית היא יישום מעשי של שיקולים מוסריים. זהו תהליך של חקירה פעילה של סוגיות אתיות בהקשר של פעולות, מוצרים ותהליכים בעולם האמיתי, ולקיחת צעדים מתקנים כדי להבטיח שהם נשארים מיושרים עם הערכים האתיים שהוגדרו.

תרבות אתית עוסקת בהפעלה של אתיקה יישומית כדי להבטיח שהעקרונות והפרקטיקות האתיים שלנו יאומצו באופן עקבי וניתן להרחבה בכל רחבי הארגון. תרבויות אתיות מצליחות מגדירות עקרונות אתיים ברמת הארגון, מספקות תמריצים משמעותיים לציות, ומחזקות נורמות אתיות על ידי עידוד והגברת התנהגויות רצויות בכל רמות הארגון.

מושגי אתיקה

בקטע זה נדון במושגים כמו ערכים משותפים (עקרונות) ואתגרים אתיים (בעיות) באתיקה של נתונים - ונחקור מחקרי מקרה שיעזרו לכם להבין את המושגים הללו בהקשרים של העולם האמיתי.

1. עקרונות אתיים

כל אסטרטגיה של אתיקה של נתונים מתחילה בהגדרת עקרונות אתיים - "ערכים משותפים" שמתארים התנהגויות מקובלות ומנחים פעולות תואמות בפרויקטים של נתונים ו-AI. ניתן להגדיר אותם ברמה אישית או צוותית. עם זאת, רוב הארגונים הגדולים מגדירים אותם בהצהרת משימה או מסגרת של AI אתי ברמת הארגון, ומיישמים אותם באופן עקבי בכל הצוותים.

דוגמה: הצהרת המשימה של AI אחראי של מיקרוסופט אומרת: "אנחנו מחויבים לקידום AI המונע על ידי עקרונות אתיים שמעמידים את האנשים במרכז" - ומזהה 6 עקרונות אתיים במסגרת הבאה:

AI אחראי במיקרוסופט

בואו נחקור בקצרה את העקרונות הללו. שקיפות ו_אחריות_ הם ערכים יסודיים שעליהם נבנים עקרונות אחרים - אז נתחיל שם:

  • אחריות הופכת את העוסקים בתחום ל_אחראים_ על פעולותיהם בתחום הנתונים וה-AI, ועל הציות לעקרונות האתיים הללו.
  • שקיפות מבטיחה שפעולות הנתונים וה-AI יהיו מובנות (ניתנות לפרשנות) למשתמשים, ומסבירה את ה"מה" וה"למה" מאחורי ההחלטות.
  • הוגנות - מתמקדת בהבטחת AI שמתייחס לכל האנשים באופן הוגן, תוך התמודדות עם הטיות חברתיות-טכניות מערכתיות או סמיות בנתונים ובמערכות.
  • אמינות ובטיחות - מבטיחה ש-AI מתנהג בעקביות עם ערכים מוגדרים, וממזערת נזקים פוטנציאליים או תוצאות בלתי צפויות.
  • פרטיות ואבטחה - עוסקת בהבנת שושלת הנתונים ובמתן הגנות על פרטיות נתונים למשתמשים.
  • הכללה - עוסקת בתכנון פתרונות AI בכוונה, והתאמתם למגוון רחב של צרכים ויכולות אנושיות.

🚨 חשבו על מה יכולה להיות הצהרת המשימה של אתיקה של נתונים שלכם. חקרו מסגרות AI אתיות מארגונים אחרים - הנה דוגמאות מ-IBM, Google, ו-Facebook. אילו ערכים משותפים יש להם במשותף? כיצד עקרונות אלה קשורים למוצרי AI או לתעשייה שבה הם פועלים?

2. אתגרים אתיים

לאחר שהגדרנו עקרונות אתיים, השלב הבא הוא להעריך את פעולות הנתונים וה-AI שלנו כדי לראות אם הן מתיישרות עם הערכים המשותפים הללו. חשבו על הפעולות שלכם בשתי קטגוריות: איסוף נתונים ויצוב אלגוריתמים_.

באיסוף נתונים, הפעולות יכללו ככל הנראה נתונים אישיים או מידע אישי מזהה (PII) עבור אנשים מזוהים. זה כולל פריטים מגוונים של נתונים לא אישיים שמזהים ביחד אדם. אתגרים אתיים יכולים להיות קשורים ל_פרטיות נתונים_, בעלות על נתונים, ונושאים קשורים כמו הסכמה מדעת ו_זכויות קניין רוחני_ של משתמשים.

בעיצוב אלגוריתמים, הפעולות יכללו איסוף ואצירה של מאגרי נתונים, ואז שימוש בהם לאימון ופריסה של מודלים נתונים שמנבאים תוצאות או מבצעים אוטומציה של החלטות בהקשרים של העולם האמיתי. אתגרים אתיים יכולים לנבוע מ_הטיות במאגרי נתונים_, בעיות איכות נתונים, חוסר הוגנות, ו_ייצוג שגוי_ באלגוריתמים - כולל כמה בעיות שהן מערכתיות בטבען.

בשני המקרים, אתגרים אתיים מדגישים אזורים שבהם הפעולות שלנו עשויות להתנגש עם הערכים המשותפים שלנו. כדי לזהות, למזער, למנוע או להסיר את החששות הללו - עלינו לשאול שאלות מוסריות "כן/לא" הקשורות לפעולות שלנו, ואז לנקוט צעדים מתקנים לפי הצורך. בואו נבחן כמה אתגרים אתיים והשאלות המוסריות שהם מעלים:

2.1 בעלות על נתונים

איסוף נתונים כולל לעיתים קרובות נתונים אישיים שיכולים לזהות את נושאי הנתונים. בעלות על נתונים עוסקת ב_שליטה_ וזכויות משתמש הקשורות ליצירה, עיבוד והפצה של נתונים.

השאלות המוסריות שעלינו לשאול הן:

  • מי הבעלים של הנתונים? (משתמש או ארגון)
  • אילו זכויות יש לנושאי הנתונים? (לדוגמה: גישה, מחיקה, ניידות)
  • אילו זכויות יש לארגונים? (לדוגמה: תיקון ביקורות משתמשים מזיקות)

2.2 הסכמה מדעת

הסכמה מדעת מגדירה את פעולת המשתמשים בהסכמה לפעולה (כמו איסוף נתונים) עם הבנה מלאה של העובדות הרלוונטיות כולל המטרה, הסיכונים הפוטנציאליים והחלופות.

שאלות לחקור כאן הן:

  • האם המשתמש (נושא הנתונים) נתן רשות ללכידת נתונים ושימוש בהם?
  • האם המשתמש הבין את המטרה שלשמה הנתונים נלכדו?
  • האם המשתמש הבין את הסיכונים הפוטנציאליים מהשתתפותו?

2.3 קניין רוחני

קניין רוחני מתייחס ליצירות בלתי מוחשיות הנובעות מיוזמה אנושית, שעשויות להיות בעלות ערך כלכלי לאנשים או עסקים.

שאלות לחקור כאן הן:

  • האם הנתונים שנאספו היו בעלי ערך כלכלי למשתמש או לעסק?
  • האם למשתמש יש קניין רוחני כאן?
  • האם לארגון יש קניין רוחני כאן?
  • אם זכויות אלו קיימות, כיצד אנו מגנים עליהן?

2.4 פרטיות נתונים

פרטיות נתונים או פרטיות מידע מתייחסת לשימור פרטיות המשתמש והגנה על זהותו ביחס למידע אישי מזהה.

שאלות לחקור כאן הן:

  • האם הנתונים האישיים של המשתמשים מאובטחים מפני פריצות ודליפות?
  • האם הנתונים של המשתמשים נגישים רק למשתמשים מורשים ולהקשרים מורשים?
  • האם האנונימיות של המשתמשים נשמרת כאשר הנתונים משותפים או מופצים?
  • האם ניתן להסיר זיהוי של משתמש ממאגרי נתונים אנונימיים?

2.5 הזכות להישכח

הזכות להישכח או הזכות למחיקה מספקת הגנה נוספת על נתונים אישיים למשתמשים. באופן ספציפי, היא מעניקה למשתמשים את הזכות לבקש מחיקה או הסרה של נתונים אישיים מחיפושים באינטרנט וממקומות אחרים, בתנאים מסוימים - ומאפשרת להם התחלה חדשה באינטרנט מבלי שפעולות עבר יעמדו נגדם.

שאלות לחקור כאן הן:

  • האם המערכת מאפשרת לנושאי נתונים לבקש מחיקה?
  • האם ביטול הסכמת המשתמש צריך להפעיל מחיקה אוטומטית?
  • האם נתונים נאספו ללא הסכמה או באמצעים בלתי חוקיים?
  • האם אנו עומדים בתקנות ממשלתיות לפרטיות נתונים?

2.6 הטיות במאגרי נתונים

הטיות במאגרי נתונים או הטיות באיסוף עוסקות בבחירת תת-קבוצה לא מייצגת של נתונים לפיתוח אלגוריתמים, מה שיוצר פוטנציאל לחוסר הוגנות בתוצאות עבור קבוצות מגוונות. סוגי הטיות כוללים הטיות בבחירה או דגימה, הטיות מתנדבים והטיות מכשירים.

שאלות לחקור כאן הן:

  • האם גייסנו קבוצה מייצגת של נושאי נתונים?
  • האם בדקנו את מאגר הנתונים שנאסף או נאצר עבור הטיות שונות?
  • האם אנו יכולים למזער או להסיר הטיות שהתגלו?

2.7 איכות נתונים

איכות נתונים בוחנת את תקפות מאגר הנתונים שנאצר לפיתוח האלגוריתמים שלנו, ובודקת אם התכונות והרשומות עומדות בדרישות לרמת דיוק ועקביות הנדרשת למטרת ה-AI שלנו.

שאלות לחקור כאן הן:

  • האם לכדנו תכונות תקפות למקרה השימוש שלנו?
  • האם נתונים נלכדו בעקביות ממקורות נתונים מגוונים?
  • האם מאגר הנתונים שלם עבור תנאים או תרחישים מגוונים?
  • האם מידע שנלכד מדויק ומשקף את המציאות? Algorithm Fairness בודק האם עיצוב האלגוריתם מפלה באופן שיטתי נגד קבוצות מסוימות של נבדקים, מה שעלול להוביל לנזקים פוטנציאליים בהקצאה (כאשר משאבים נשללים או נמנעים מקבוצה זו) ובאיכות השירות (כאשר הבינה המלאכותית אינה מדויקת באותה מידה עבור תת-קבוצות מסוימות כמו עבור אחרות).

שאלות שכדאי לבחון כאן:

  • האם הערכנו את דיוק המודל עבור תת-קבוצות ותנאים מגוונים?
  • האם בדקנו את המערכת לנזקים פוטנציאליים (למשל, סטריאוטיפים)?
  • האם ניתן לעדכן נתונים או לאמן מחדש מודלים כדי לצמצם נזקים שזוהו?

חקור משאבים כמו AI Fairness checklists כדי ללמוד עוד.

2.9 הצגת נתונים מטעה

הצגת נתונים מטעה עוסקת בשאלה האם אנו מציגים תובנות מתוך נתונים מדווחים באופן כנה בצורה מטעה כדי לתמוך בנרטיב רצוי.

שאלות שכדאי לבחון כאן:

  • האם אנו מדווחים נתונים לא שלמים או לא מדויקים?
  • האם אנו מציגים נתונים בצורה שמובילה למסקנות מטעות?
  • האם אנו משתמשים בטכניקות סטטיסטיות סלקטיביות כדי לעוות תוצאות?
  • האם קיימות הסברים חלופיים שיכולים להוביל למסקנה שונה?

2.10 אשליית הבחירה החופשית

אשליית הבחירה החופשית מתרחשת כאשר "ארכיטקטורות בחירה" של מערכת משתמשות באלגוריתמים לקבלת החלטות כדי להניע אנשים לבחור בתוצאה מועדפת, תוך יצירת רושם שהם מקבלים אפשרויות ושליטה. דפוסים אפלים אלו עלולים לגרום לנזקים חברתיים וכלכליים למשתמשים. מכיוון שהחלטות משתמשים משפיעות על פרופילי התנהגות, פעולות אלו עשויות להניע בחירות עתידיות ולהעצים או להרחיב את השפעת הנזקים.

שאלות שכדאי לבחון כאן:

  • האם המשתמש הבין את ההשלכות של הבחירה שעשה?
  • האם המשתמש היה מודע לאפשרויות (חלופיות) וליתרונות והחסרונות של כל אחת מהן?
  • האם המשתמש יכול לבטל בחירה אוטומטית או מושפעת מאוחר יותר?

3. מקרי בוחן

כדי לשים את האתגרים האתיים הללו בהקשרים של העולם האמיתי, כדאי לבחון מקרי בוחן המדגישים את הנזקים וההשלכות האפשריים על יחידים וחברה, כאשר מתעלמים מהפרות אתיות כאלה.

להלן מספר דוגמאות:

אתגר אתי מקרה בוחן
הסכמה מדעת 1972 - מחקר העגבת בטסקיגי - גברים אפרו-אמריקאים שהשתתפו במחקר הובטחה להם טיפול רפואי חינם אך הוטעו על ידי חוקרים שלא יידעו אותם על האבחנה שלהם או על זמינות הטיפול. רבים מהנבדקים מתו, ושותפים או ילדים נפגעו; המחקר נמשך 40 שנה.
פרטיות נתונים 2007 - פרס הנתונים של נטפליקס סיפק לחוקרים 10 מיליון דירוגי סרטים אנונימיים מ-50 אלף לקוחות כדי לשפר אלגוריתמי המלצה. עם זאת, חוקרים הצליחו לקשר נתונים אנונימיים לנתונים מזהים אישית ב_מאגרי נתונים חיצוניים_ (למשל, תגובות ב-IMDb) - ובכך "לחשוף" חלק ממנויי נטפליקס.
הטיית איסוף נתונים 2013 - עיריית בוסטון פיתחה את Street Bump, אפליקציה שאפשרה לתושבים לדווח על בורות בכביש, מה שסיפק לעיר נתונים טובים יותר על מצב הדרכים. עם זאת, לאנשים בקבוצות הכנסה נמוכה הייתה פחות גישה למכוניות וטלפונים, מה שהפך את הבעיות בדרכים שלהם לבלתי נראות באפליקציה זו. המפתחים עבדו עם אקדמאים כדי לטפל בבעיות של נגישות שוויונית ופערים דיגיטליים למען הוגנות.
הוגנות אלגוריתמית 2018 - מחקר Gender Shades של MIT העריך את דיוק מוצרי AI לסיווג מגדר, וחשף פערים בדיוק עבור נשים ואנשים בעלי צבע עור כהה. כרטיס האשראי של אפל ב-2019 נראה שהציע פחות אשראי לנשים מאשר לגברים. שני המקרים הדגישו בעיות של הטיה אלגוריתמית שהובילה לנזקים חברתיים-כלכליים.
הצגת נתונים מטעה 2020 - מחלקת הבריאות של ג'ורג'יה פרסמה גרפים של מקרי COVID-19 שנראה כי הטעו אזרחים לגבי מגמות במקרי הקורונה המאומתים באמצעות סדר לא כרונולוגי בציר ה-x. זה מדגים הצגת נתונים מטעה באמצעות טריקים ויזואליים.
אשליית הבחירה החופשית 2020 - אפליקציית הלמידה ABCmouse שילמה 10 מיליון דולר כדי ליישב תלונה של ה-FTC שבה הורים נלכדו בתשלומים על מנויים שלא יכלו לבטל. זה מדגים דפוסים אפלים בארכיטקטורות בחירה, שבהן משתמשים הונעו לעבר בחירות שעלולות להזיק.
פרטיות נתונים וזכויות משתמשים 2021 - פרצת נתונים בפייסבוק חשפה נתונים של 530 מיליון משתמשים, מה שהוביל להסדר של 5 מיליארד דולר עם ה-FTC. עם זאת, החברה סירבה להודיע למשתמשים על הפרצה, ובכך הפרה זכויות משתמשים בנוגע לשקיפות וגישה לנתונים.

רוצה לחקור עוד מקרי בוחן? עיין במשאבים הבאים:

🚨 חשוב על מקרי הבוחן שראית - האם חווית או הושפעת מאתגר אתי דומה בחייך? האם תוכל לחשוב על מקרה בוחן נוסף שממחיש אחד מהאתגרים האתיים שדנו בהם בסעיף זה?

אתיקה יישומית

דיברנו על מושגי אתיקה, אתגרים ומקרי בוחן בהקשרים של העולם האמיתי. אבל איך מתחילים ליישם עקרונות ואתיקה בפרויקטים שלנו? ואיך מפעילים את העקרונות הללו למען ממשל טוב יותר? בואו נחקור כמה פתרונות מעשיים:

1. קודים מקצועיים

קודים מקצועיים מציעים אפשרות לארגונים "לתמרץ" חברים לתמוך בעקרונות האתיקה ובאמנת הארגון. קודים אלו הם הנחיות מוסריות להתנהגות מקצועית, המסייעות לעובדים או חברים לקבל החלטות שמתיישרות עם עקרונות הארגון. הם טובים רק כמו הציות הוולונטרי של החברים; עם זאת, ארגונים רבים מציעים תגמולים ועונשים נוספים כדי להניע ציות.

דוגמאות כוללות:

🚨 האם אתה חבר בארגון מקצועי להנדסה או מדעי הנתונים? חקור את האתר שלהם כדי לראות אם הם מגדירים קוד אתיקה מקצועי. מה זה אומר על עקרונות האתיקה שלהם? איך הם "מתמרצים" חברים לציית לקוד?

2. רשימות בדיקה אתיות

בעוד שקודים מקצועיים מגדירים התנהגות אתית נדרשת, הם מוגבלים באכיפה, במיוחד בפרויקטים רחבי היקף. במקום זאת, מומחים רבים במדעי הנתונים תומכים ברשימות בדיקה, שיכולות לחבר עקרונות לפרקטיקות בדרכים דטרמיניסטיות וברות ביצוע.

רשימות בדיקה ממירות שאלות למשימות "כן/לא" שניתן להפעיל, ומאפשרות מעקב כחלק מזרימות עבודה סטנדרטיות לשחרור מוצרים.

דוגמאות כוללות:

  • Deon - רשימת בדיקה כללית לאתיקה במדעי הנתונים שנוצרה מתוך המלצות תעשייה עם כלי שורת פקודה לשילוב קל.
  • Privacy Audit Checklist - מספקת הנחיות כלליות לטיפול במידע מנקודות מבט משפטיות וחברתיות.
  • AI Fairness Checklist - נוצרה על ידי מומחי AI לתמיכה באימוץ ובשילוב בדיקות הוגנות במחזורי פיתוח AI.
  • 22 שאלות לאתיקה בנתונים ובינה מלאכותית - מסגרת פתוחה יותר, מובנית לחקירה ראשונית של סוגיות אתיות בעיצוב, יישום והקשרים ארגוניים.

3. רגולציות אתיות

אתיקה עוסקת בהגדרת ערכים משותפים ועשיית הדבר הנכון מרצון. ציות עוסק ב_עמידה בחוק_ אם וכאשר הוא מוגדר. ממשל מכסה באופן רחב את כל הדרכים שבהן ארגונים פועלים כדי לאכוף עקרונות אתיים ולעמוד בחוקים שנקבעו.

כיום, ממשל לוקח שתי צורות בארגונים. ראשית, מדובר בהגדרת עקרונות AI אתיים וביסוס פרקטיקות להפעלת אימוץ בכל הפרויקטים הקשורים ל-AI בארגון. שנית, מדובר בעמידה בכל תקנות הגנת נתונים שממשלות מגדירות באזורים שבהם הארגון פועל.

דוגמאות לתקנות הגנת נתונים ופרטיות:

🚨 תקנת GDPR (General Data Protection Regulation) שהוגדרה על ידי האיחוד האירופי נחשבת לאחת מתקנות הפרטיות המשפיעות ביותר כיום. האם ידעת שהיא גם מגדירה 8 זכויות משתמש כדי להגן על פרטיות דיגיטלית ונתונים אישיים של אזרחים? למד מהן הזכויות הללו ולמה הן חשובות.

4. תרבות אתית

שימו לב כי קיים פער בלתי מוחשי בין ציות (לעשות מספיק כדי לעמוד ב"אות החוק") לבין טיפול בבעיות מערכתיות (כמו קיפאון, אסימטריה במידע, ואי-שוויון חלוקתי) שיכולות להאיץ את השימוש לרעה ב-AI.

האחרון דורש גישות שיתופיות להגדרת תרבויות אתיות שבונות קשרים רגשיים וערכים משותפים עקביים בין ארגונים בתעשייה. זה קורא לתרבויות אתיקה פורמליות יותר בארגונים - המאפשרות לכל אחד למשוך את חוט האנדון (כדי להעלות חששות אתיים מוקדם בתהליך) והופכות הערכות אתיות (למשל, בגיוס עובדים) לקריטריון מרכזי בהרכבת צוותים בפרויקטים של AI.


חידון לאחר ההרצאה 🎯

סקירה ולמידה עצמית

קורסים וספרים עוזרים להבין מושגי אתיקה ואתגרים מרכזיים, בעוד שמקרי בוחן וכלים מסייעים בפרקטיקות אתיקה יישומיות בהקשרים של העולם האמיתי. הנה כמה משאבים להתחלה:

משימה

כתיבת מקרה בוחן על אתיקה בנתונים


כתב ויתור:
מסמך זה תורגם באמצעות שירות תרגום מבוסס בינה מלאכותית Co-op Translator. בעוד שאנו שואפים לדיוק, יש לקחת בחשבון שתרגומים אוטומטיים עשויים להכיל שגיאות או אי-דיוקים. המסמך המקורי בשפתו המקורית נחשב למקור הסמכותי. למידע קריטי, מומלץ להשתמש בתרגום מקצועי על ידי בני אדם. איננו נושאים באחריות לכל אי-הבנה או פרשנות שגויה הנובעת משימוש בתרגום זה.