diff --git a/1-Introduction/3-fairness/translations/README.ja.md b/1-Introduction/3-fairness/translations/README.ja.md index 3ac9418c..e8448359 100644 --- a/1-Introduction/3-fairness/translations/README.ja.md +++ b/1-Introduction/3-fairness/translations/README.ja.md @@ -82,7 +82,7 @@ AIや機械学習における公平性の保証は、依然として複雑な社 異常な画像検索の結果はこの問題の良い例です。エンジニアやCEOなど、男性と女性の割合が同じかそれ以上の職業の画像を検索すると、どちらかの性別に大きく偏った結果が表示されるので注意が必要です。 ![BingでCEOと検索](../images/ceos.png) -> This search on Bing for 'CEO' produces pretty inclusive results +> Bing での「CEO」の検索結果は包摂的な結果が表示されています これらの5つの主要なタイプの問題は、相互に排他的なものではなく、1つのシステムが複数のタイプの害を示すこともあります。さらに、それぞれのケースでは、その重大性が異なります。例えば、ある人に不当に犯罪者のレッテルを貼ることは、画像を誤って表示することよりもはるかに深刻な問題です。しかし、比較的深刻ではない被害であっても、人々が疎外感を感じたり、特別視されていると感じたりすることがあり、その累積的な影響は非常に抑圧的なものになりうることを覚えておくことは重要でしょう。