You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/ja/1-Introduction/02-ethics
Hiroshi Yoshioka 509b865cfe
Add post-lecture quiz and review resources
4 months ago
..
README.md Add post-lecture quiz and review resources 4 months ago
assignment.md 🌐 Update translations via Co-op Translator 6 months ago

README.md

データ倫理の概要

 スケッチノート by (@sketchthedocs)
データサイエンス倫理 - スケッチノート by @nitya

私たちは、データ化された世界に生きるデータ市民です。

市場の動向によると、2022年までに大企業の3分の1がオンラインのマーケットプレイスや取引所を通じてデータを売買するようになると言われています。アプリ開発者として、データ駆動型の洞察やアルゴリズムによる自動化を日常のユーザー体験に統合することが、より簡単かつ安価になります。しかし、AIが広く普及するにつれて、こうしたアルゴリズムが大規模に武器化されることで生じる潜在的な害についても理解する必要があります。

2025年までに、私たちは180ゼタバイト以上のデータを生成し消費するようになると予測されています。データサイエンティストにとって、この情報の爆発は個人や行動データへの前例のないアクセスを提供します。その結果、詳細なユーザープロファイルを構築し、意思決定に微妙な影響を与える力を持つことになりますが、これがしばしば自由選択の錯覚を助長することがあります。これにより、ユーザーを望ましい結果に誘導することが可能になりますが、データプライバシー、自律性、アルゴリズムの影響の倫理的境界について重要な疑問を提起します。

データ倫理は、データサイエンスとエンジニアリングにおける_必要なガードレール_となり、データ駆動型の行動による潜在的な害や予期せぬ結果を最小限に抑えるのに役立ちます。ガートナーのAIハイプサイクルは、デジタル倫理、責任あるAI、AIガバナンスに関連するトレンドを、AIの_民主化_と_産業化_を推進する主要なメガトレンドとして特定しています。

ガートナーのAIハイプサイクル - 2020

このレッスンでは、データ倫理の魅力的な分野を探求します。基本的な概念や課題からケーススタディ、ガバナンスのような応用AIの概念まで、データやAIを扱うチームや組織に倫理文化を確立する方法を学びます。

講義前のクイズ 🎯

基本的な定義

まずは基本的な用語を理解しましょう。

「倫理」という言葉は、ギリシャ語の "ethikos"(その語源である "ethos"に由来し、_性格や道徳的性質_を意味します。

倫理とは、社会における行動を支配する共有価値観や道徳的原則のことです。倫理は法律ではなく、「正しい vs. 間違っている」という広く受け入れられた規範に基づいています。しかし、倫理的考慮は企業統治の取り組みや政府規制に影響を与え、コンプライアンスのインセンティブを増やすことがあります。

データ倫理は、_データ、アルゴリズム、およびそれに関連する実践_に関する道徳的問題を「研究し評価する」新しい倫理の分野です。ここで、**「データ」は生成、記録、キュレーション、処理、普及、共有、使用に関連する行動に焦点を当て、「アルゴリズム」はAI、エージェント、機械学習、ロボットに焦点を当て、「実践」**は責任あるイノベーション、プログラミング、ハッキング、倫理コードなどのトピックに焦点を当てます。

応用倫理は、_現実世界の行動、製品、プロセス_の文脈で倫理的問題を積極的に調査し、それらが定義された倫理的価値観に一致するように是正措置を講じる道徳的考慮の実践的応用です。

倫理文化は、組織全体で倫理的原則と実践が一貫してスケーラブルに採用されるようにするために、応用倫理を運用化することです。成功する倫理文化は、組織全体の倫理的原則を定義し、コンプライアンスに対する意味のあるインセンティブを提供し、望ましい行動を奨励し増幅することで、組織のあらゆるレベルで倫理規範を強化します。

倫理の概念

このセクションでは、データ倫理における共有価値観(原則)や倫理的課題(問題)について議論し、これらの概念を現実世界の文脈で理解するためのケーススタディを探ります。

1. 倫理原則

すべてのデータ倫理戦略は、_倫理原則_を定義することから始まります。これは、データとAIプロジェクトにおける許容される行動を記述し、コンプライアンスのある行動を導く「共有価値観」です。これらは個人やチームレベルで定義することができます。しかし、ほとんどの大企業は、企業レベルで定義され、すべてのチームに一貫して適用される_倫理的AI_の使命声明やフレームワークにこれをまとめています。

例: Microsoftの責任あるAIの使命声明は、_「私たちは、人々を第一に考える倫理原則によって推進されるAIの進歩にコミットしています」_と述べており、以下のフレームワークで6つの倫理原則を特定しています。

Microsoftの責任あるAI

これらの原則を簡単に探ってみましょう。_透明性_と_責任_は他の原則の基盤となる価値観なので、まずそこから始めます

  • 責任は、実践者がデータとAIの運用に対して_責任_を持ち、これらの倫理原則に準拠することを保証します。
  • 透明性は、データとAIの行動がユーザーにとって_理解可能_解釈可能であり、意思決定の背後にある内容と理由を説明することを保証します。
  • 公平性は、AIが_すべての人々_を公平に扱い、データやシステムにおける体系的または暗黙的な社会技術的バイアスに対処することに焦点を当てます。
  • 信頼性と安全性は、AIが定義された価値観に_一貫して_従い、潜在的な害や予期せぬ結果を最小限に抑えることを保証します。
  • プライバシーとセキュリティは、データの系譜を理解し、ユーザーに_データプライバシーと関連する保護_を提供することに関するものです。
  • 包括性は、意図を持ってAIソリューションを設計し、_幅広い人間のニーズ_と能力に対応するように適応させることに関するものです。

🚨 あなたのデータ倫理の使命声明はどのようなものになるでしょうか。他の組織の倫理的AIフレームワークを探ってみてください。ここにはIBMGoogleFacebookの例があります。これらの共有価値観にはどのような共通点がありますかこれらの原則は、それぞれのAI製品や業界にどのように関連していますか

2. 倫理的課題

倫理原則を定義したら、次のステップは、データとAIの行動がこれらの共有価値観に一致しているかどうかを評価することです。行動を_データ収集_と_アルゴリズム設計_の2つのカテゴリーで考えてみましょう。

データ収集では、行動は個人データや個人を特定できる情報PIIを含む可能性があります。これには、個人を_集合的に_特定する多様な非個人データが含まれます。倫理的課題は、データプライバシーデータ所有権、および_インフォームドコンセント_や_知的財産権_などの関連トピックに関連する可能性があります。

アルゴリズム設計では、行動はデータセットを収集およびキュレーションし、それを使用してデータモデルをトレーニングおよび展開し、現実世界の文脈で結果を予測したり意思決定を自動化したりすることを含みます。倫理的課題は、データセットのバイアス、_データ品質_の問題、不公平性、およびアルゴリズムの_誤表現_から生じる可能性があります。これには、体系的な問題も含まれます。

どちらの場合も、倫理的課題は、行動が共有価値観と衝突する可能性のある領域を強調します。これらの懸念を検出、緩和、最小化、または排除するためには、行動に関連する道徳的な「はい/いいえ」の質問を行い、必要に応じて是正措置を講じる必要があります。以下に、倫理的課題とそれが提起する道徳的質問をいくつか見てみましょう:

2.1 データ所有権

データ収集は、データ主体を特定できる個人データを含むことがよくあります。データ所有権は、データの作成、処理、普及に関連する_コントロール_とユーザー権利に関するものです。

道徳的な質問は以下の通りです:

  • データの所有者は誰ですか?(ユーザーまたは組織)
  • データ主体にはどのような権利がありますか?(例:アクセス、削除、移植性)
  • 組織にはどのような権利がありますか?(例:悪意のあるユーザーレビューの修正)

2.2 インフォームドコンセント

インフォームドコンセントは、ユーザーが目的、潜在的なリスク、代替案を含む関連事実を_完全に理解_した上で、行動データ収集に同意する行為を定義します。

ここで探るべき質問は以下の通りです:

  • ユーザー(データ主体)はデータの収集と使用に許可を与えましたか?
  • ユーザーはそのデータが収集された目的を理解しましたか?
  • ユーザーは参加による潜在的なリスクを理解しましたか?

2.3 知的財産

知的財産は、人間のイニシアチブから生じる無形の創造物であり、個人や企業にとって_経済的価値_を持つ可能性があります。

ここで探るべき質問は以下の通りです:

  • 収集されたデータはユーザーや企業にとって経済的価値を持っていましたか?
  • ユーザーにはここで知的財産がありますか?
  • 組織にはここで知的財産がありますか?
  • これらの権利が存在する場合、それらをどのように保護していますか?

2.4 データプライバシー

データプライバシーまたは情報プライバシーは、個人を特定できる情報に関して、ユーザーのプライバシーを維持し、ユーザーの身元を保護することを指します。

ここで探るべき質問は以下の通りです:

  • ユーザーの(個人)データはハッキングや漏洩から保護されていますか?
  • ユーザーのデータは許可されたユーザーや文脈にのみアクセス可能ですか?
  • データが共有または普及される際にユーザーの匿名性は維持されていますか?
  • 匿名化されたデータセットからユーザーを特定することは可能ですか?

2.5 忘れられる権利

忘れられる権利または削除権は、ユーザーに追加の個人データ保護を提供します。具体的には、特定の状況下でインターネット検索やその他の場所から個人データの削除または除去を要求する権利をユーザーに与え、過去の行動が彼らに不利に働かないようにするオンラインでの新しいスタートを可能にします。

ここで探るべき質問は以下の通りです:

  • システムはデータ主体が削除を要求することを許可していますか?
  • ユーザーの同意の撤回が自動削除を引き起こすべきですか?
  • データは同意なしまたは違法な手段で収集されましたか?
  • データプライバシーに関する政府規制に準拠していますか?

2.6 データセットのバイアス

データセットまたは収集バイアスは、アルゴリズム開発のために_非代表的な_データのサブセットを選択することで、さまざまなグループに対して結果が不公平になる可能性を生み出します。バイアスの種類には、選択またはサンプリングバイアス、ボランティアバイアス、機器バイアスがあります。

ここで探る

  • 情報は現実を正確に反映して記録されていますか?

2.8 アルゴリズムの公平性

アルゴリズムの公平性は、アルゴリズム設計が特定のデータ主体のサブグループに対して体系的に差別を行い、資源の配分そのグループに資源が拒否または保留される場合や_サービスの質_AIが特定のサブグループに対して他のグループほど正確でない場合における潜在的な害を引き起こしていないかを確認します。

ここで検討すべき質問は以下の通りです:

  • 多様なサブグループや条件に対してモデルの精度を評価しましたか?
  • システムを潜在的な害(例:ステレオタイプ化)について精査しましたか?
  • 特定された害を軽減するためにデータを修正したりモデルを再訓練することは可能ですか?

AIの公平性チェックリストなどのリソースを活用してさらに学びましょう。

2.9 誤表現

データの誤表現は、正直に報告されたデータから得られた洞察を、望ましいストーリーを支持するために欺瞞的に伝えていないかを問うものです。

ここで検討すべき質問は以下の通りです:

  • 不完全または不正確なデータを報告していますか?
  • 誤解を招く結論を導くような方法でデータを視覚化していますか?
  • 結果を操作するために選択的な統計手法を使用していますか?
  • 別の結論を提供する可能性のある代替説明がありますか?

2.10 自由選択

自由選択の錯覚は、システムの「選択アーキテクチャ」が意思決定アルゴリズムを使用して、ユーザーに選択肢やコントロールを与えているように見せながら、好ましい結果を取るよう促す場合に発生します。これらのダークパターンは、ユーザーに社会的および経済的な害を引き起こす可能性があります。ユーザーの意思決定は行動プロファイルに影響を与え、これらの害の影響を増幅または拡大する可能性があります。

ここで検討すべき質問は以下の通りです:

  • ユーザーはその選択をすることの意味を理解していましたか?
  • ユーザーは(代替の)選択肢とそれぞれの利点と欠点を認識していましたか?
  • ユーザーは自動化された選択や影響を受けた選択を後で取り消すことができますか?

3. ケーススタディ

これらの倫理的課題を現実世界の文脈で理解するためには、倫理違反が見過ごされた場合に個人や社会に及ぼす潜在的な害や結果を強調するケーススタディを検討することが役立ちます。

以下はその例です:

倫理的課題 ケーススタディ
インフォームドコンセント 1972年 - タスキーギ梅毒研究 - 研究に参加したアフリカ系アメリカ人男性は無料の医療を約束されましたが、研究者によって診断や治療の利用可能性について知らされずに欺かれました。多くの参加者が死亡し、パートナーや子供にも影響が及びました。この研究は40年間続きました。
データプライバシー 2007年 - Netflixデータ賞は、研究者に_50Kの顧客からの10Mの匿名化された映画ランキング_を提供し、推薦アルゴリズムを改善するための助けとなりました。しかし、研究者は匿名化されたデータを外部データセットIMDbコメントと関連付けることで、Netflixの一部の加入者を事実上「匿名解除」することができました。
収集バイアス 2013年 - ボストン市はStreet Bumpというアプリを開発し、市民が道路の穴を報告できるようにし、市が問題を特定して修正するためのより良い道路データを提供しました。しかし、低所得層の人々は車や電話へのアクセスが少ないため、このアプリでは彼らの道路問題が見えなくなっていました。開発者は公平性のために_公平なアクセスとデジタル格差_の問題に取り組むために学者と協力しました。
アルゴリズムの公平性 2018年 - MITのGender Shades Studyは、性別分類AI製品の精度を評価し、女性や有色人種に対する精度のギャップを明らかにしました。2019年のApple Cardは、男性よりも女性に少ないクレジットを提供しているように見えました。どちらもアルゴリズムバイアスが社会経済的な害を引き起こす問題を示しています。
データの誤表現 2020年 - ジョージア州公衆衛生局がCOVID-19のチャートを公開し、x軸の非時系列順序によって確認されたケースの傾向について市民を誤解させるように見えました。これは視覚化のトリックによる誤表現を示しています。
自由選択の錯覚 2020年 - 学習アプリABCmouseがFTCの苦情を解決するために$10Mを支払ったケースでは、親がキャンセルできないサブスクリプションを支払うように追い込まれました。これは選択アーキテクチャにおけるダークパターンを示しており、ユーザーが潜在的に有害な選択をするよう促されました。
データプライバシーとユーザーの権利 2021年 - Facebookのデータ漏洩では、530Mのユーザーのデータが漏洩し、FTCに$5Bの和解金を支払う結果となりました。しかし、漏洩についてユーザーに通知することを拒否し、データの透明性とアクセスに関するユーザーの権利を侵害しました。

さらにケーススタディを探したいですか?以下のリソースをチェックしてください:

🚨 あなたが見たケーススタディについて考えてみてください。あなた自身が似たような倫理的課題に影響を受けた経験がありますかこのセクションで議論した倫理的課題を示す別のケーススタディを少なくとも1つ考えることができますか

応用倫理

倫理の概念、課題、ケーススタディを現実世界の文脈で議論しました。しかし、プロジェクトで倫理的原則や実践を_適用_するにはどうすればよいでしょうかまた、これらの実践をより良いガバナンスのために_運用化_するにはどうすればよいでしょうかいくつかの現実的な解決策を探ってみましょう

1. プロフェッショナルコード

プロフェッショナルコードは、組織が倫理的原則やミッションステートメントを支持するようメンバーを「奨励」するための選択肢を提供します。コードはプロフェッショナルな行動のための_道徳的ガイドライン_であり、従業員やメンバーが組織の原則に沿った意思決定を行うのを助けます。これらはメンバーの自主的な遵守に依存しますが、多くの組織はメンバーの遵守を促進するために追加の報酬や罰則を提供しています。

例:

🚨 あなたはプロフェッショナルなエンジニアリングやデータサイエンスの組織に所属していますか?そのサイトを調べて、プロフェッショナルな倫理コードを定義しているかどうかを確認してください。それは彼らの倫理的原則について何を示していますか?メンバーがコードを遵守するようにどのように「奨励」していますか?

2. 倫理チェックリスト

プロフェッショナルコードは実践者に必要な_倫理的行動_を定義しますが、大規模プロジェクトにおける実施の限界が知られています。その代わりに、多くのデータサイエンスの専門家はチェックリストを提唱しており、これにより原則をより決定論的で実行可能な方法で実践に結びつけることができます。

チェックリストは質問を「はい/いいえ」のタスクに変換し、運用化することができ、標準的な製品リリースワークフローの一部として追跡可能になります。

例:

3. 倫理規制

倫理は共有価値を定義し、自発的に正しいことを行うことに関するものです。コンプライアンスは、定義されている場合に法律を遵守することに関するものです。ガバナンスは、組織が倫理的原則を実施し、確立された法律を遵守する方法全般を指します。

今日、ガバナンスは組織内で2つの形態を取ります。まず、すべてのAI関連プロジェクトにおいて倫理的AI原則を定義し、採用を運用化するための実践を確立することです。次に、組織が運営する地域の政府が定めたデータ保護規制を遵守することです。

データ保護とプライバシー規制の例:

🚨 欧州連合が定義したGDPR一般データ保護規則は、今日最も影響力のあるデータプライバシー規制の1つです。また、8つのユーザー権利を定義して市民のデジタルプライバシーと個人データを保護していることをご存知ですか?これらが何であるか、そしてなぜ重要なのかを学びましょう。

4. 倫理文化

コンプライアンス(「法律の文言」を満たすために十分なことを行うこと)とシステム的な問題硬直化、情報の非対称性、分配の不公平性などに対処することAIの武器化を加速させる可能性があるとの間には、依然として無形のギャップがあります。

後者には、業界内で_組織間_で一貫した共有価値と感情的なつながりを構築する倫理文化を定義するための協力的アプローチが必要です。これには、組織内でより正式化されたデータ倫理文化を構築することが求められます。これにより、誰でも(プロセスの早い段階で倫理的懸念を提起するために)アンドンコードを引くことを可能にし、AIプロジェクトにおけるチーム編成の中核基準として 倫理的評価(例:採用時)を行うことです。


講義後クイズ 🎯

復習と自習

コースや書籍は、倫理の中核となる概念や課題の理解に役立ちます。また、ケーススタディやツールは、実社会における応用倫理の実践に役立ちます。まずは、以下のリソースをご覧ください。

課題

データ倫理のケーススタディを書く


免責事項:
この文書は、AI翻訳サービスCo-op Translatorを使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。元の言語で記載された文書を正式な情報源とみなしてください。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤解について、当社は責任を負いません。