You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/bn/1-Introduction/02-ethics/README.md

247 lines
55 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
"translation_date": "2025-09-06T07:20:59+00:00",
"source_file": "1-Introduction/02-ethics/README.md",
"language_code": "bn"
}
-->
# ডেটা নীতিশাস্ত্রের পরিচিতি
|![ স্কেচনোট [(@sketchthedocs)](https://sketchthedocs.dev) দ্বারা ](../../sketchnotes/02-Ethics.png)|
|:---:|
| ডেটা সায়েন্স নীতিশাস্ত্র - _[@nitya](https://twitter.com/nitya) দ্বারা স্কেচনোট_ |
---
আমরা সবাই একটি ডেটা-নির্ভর জগতে ডেটা নাগরিক হিসেবে বসবাস করছি।
বাজারের প্রবণতা আমাদের জানায় যে ২০২২ সালের মধ্যে, প্রতি তিনটি বড় প্রতিষ্ঠানের মধ্যে একটি তাদের ডেটা অনলাইনে [মার্কেটপ্লেস এবং এক্সচেঞ্জের](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) মাধ্যমে ক্রয়-বিক্রয় করবে। **অ্যাপ ডেভেলপারদের** জন্য, ডেটা-চালিত অন্তর্দৃষ্টি এবং অ্যালগরিদম-চালিত স্বয়ংক্রিয়তাকে দৈনন্দিন ব্যবহারকারীর অভিজ্ঞতায় সংহত করা আরও সহজ এবং সাশ্রয়ী হবে। তবে, এআই সর্বব্যাপী হয়ে উঠলে, আমাদের এটাও বুঝতে হবে যে [অস্ত্রায়ন](https://www.youtube.com/watch?v=TQHs8SA1qpk) এর মাধ্যমে বড় পরিসরে এই অ্যালগরিদমগুলো কী ধরনের ক্ষতি করতে পারে।
প্রবণতা আরও দেখায় যে ২০২৫ সালের মধ্যে আমরা [১৮০ জেটাবাইটেরও বেশি](https://www.statista.com/statistics/871513/worldwide-data-created/) ডেটা তৈরি এবং ব্যবহার করব। **ডেটা বিজ্ঞানীদের** জন্য, এটি আমাদের ব্যক্তিগত ডেটার অভূতপূর্ব স্তরে প্রবেশাধিকার দেয়। এর মানে আমরা ব্যবহারকারীদের আচরণগত প্রোফাইল তৈরি করতে পারি এবং এমনভাবে সিদ্ধান্ত গ্রহণে প্রভাব ফেলতে পারি যা [মুক্ত পছন্দের ভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) তৈরি করে, তবে ব্যবহারকারীদের আমাদের পছন্দসই ফলাফলের দিকে ঠেলে দেয়। এটি ডেটা গোপনীয়তা এবং ব্যবহারকারীর সুরক্ষার উপর আরও বিস্তৃত প্রশ্নও উত্থাপন করে।
ডেটা নীতিশাস্ত্র এখন ডেটা বিজ্ঞান এবং প্রকৌশলের জন্য _প্রয়োজনীয় গার্ডরেল_, যা আমাদের ডেটা-চালিত কর্ম থেকে সম্ভাব্য ক্ষতি এবং অনিচ্ছাকৃত পরিণতি হ্রাস করতে সহায়তা করে। [গার্টনার হাইপ সাইকেল ফর এআই](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ডিজিটাল নীতিশাস্ত্র, দায়িত্বশীল এআই এবং এআই গভর্নেন্সের মতো প্রবণতাগুলিকে বড় মেগাট্রেন্ডগুলির মূল চালক হিসাবে চিহ্নিত করে, যেমন এআই-এর _গণতন্ত্রায়ন_ এবং _শিল্পায়ন_
![গার্টনারের এআই-এর হাইপ সাইকেল - ২০২০](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==)
এই পাঠে, আমরা ডেটা নীতিশাস্ত্রের চমকপ্রদ ক্ষেত্রটি অন্বেষণ করব - মূল ধারণা এবং চ্যালেঞ্জ থেকে শুরু করে কেস স্টাডি এবং গভর্নেন্সের মতো প্রয়োগকৃত এআই ধারণা পর্যন্ত - যা ডেটা এবং এআই নিয়ে কাজ করা দল এবং প্রতিষ্ঠানে একটি নীতিশাস্ত্র সংস্কৃতি প্রতিষ্ঠায় সহায়তা করে।
## [পাঠ-পূর্ব কুইজ](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
## মৌলিক সংজ্ঞা
চলুন মৌলিক পরিভাষা বোঝা দিয়ে শুরু করি।
"নীতিশাস্ত্র" শব্দটি এসেছে [গ্রিক শব্দ "ethikos"](https://en.wikipedia.org/wiki/Ethics) (এবং এর মূল "ethos") থেকে, যার অর্থ _চরিত্র বা নৈতিক প্রকৃতি_
**নীতিশাস্ত্র** হলো সেই শেয়ার করা মূল্যবোধ এবং নৈতিক নীতিমালা যা সমাজে আমাদের আচরণ নিয়ন্ত্রণ করে। নীতিশাস্ত্র আইন নয়, বরং "সঠিক বনাম ভুল" সম্পর্কে সর্বজনীনভাবে গৃহীত মানদণ্ডের উপর ভিত্তি করে। তবে, নৈতিক বিবেচনা কর্পোরেট গভর্নেন্স উদ্যোগ এবং সরকারী বিধিমালাকে প্রভাবিত করতে পারে, যা সম্মতির জন্য আরও প্রণোদনা তৈরি করে।
**ডেটা নীতিশাস্ত্র** হলো নীতিশাস্ত্রের একটি [নতুন শাখা](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), যা "_ডেটা, অ্যালগরিদম এবং সংশ্লিষ্ট অনুশীলন_" সম্পর্কিত নৈতিক সমস্যাগুলি অধ্যয়ন এবং মূল্যায়ন করে। এখানে, **"ডেটা"** জেনারেশন, রেকর্ডিং, কিউরেশন, প্রসেসিং, প্রচার, শেয়ারিং এবং ব্যবহারের সাথে সম্পর্কিত ক্রিয়াকলাপগুলিতে ফোকাস করে, **"অ্যালগরিদম"** এআই, এজেন্ট, মেশিন লার্নিং এবং রোবটগুলিতে ফোকাস করে, এবং **"অনুশীলন"** দায়িত্বশীল উদ্ভাবন, প্রোগ্রামিং, হ্যাকিং এবং নীতিশাস্ত্র কোডের মতো বিষয়গুলিতে ফোকাস করে।
**প্রয়োগকৃত নীতিশাস্ত্র** হলো নৈতিক বিবেচনার [ব্যবহারিক প্রয়োগ](https://en.wikipedia.org/wiki/Applied_ethics)। এটি হলো _বাস্তব জীবনের কর্ম, পণ্য এবং প্রক্রিয়ার_ প্রেক্ষাপটে নৈতিক বিষয়গুলি সক্রিয়ভাবে তদন্ত করার প্রক্রিয়া এবং আমাদের সংজ্ঞায়িত নৈতিক মূল্যবোধের সাথে সঙ্গতিপূর্ণ রাখতে সংশোধনমূলক ব্যবস্থা গ্রহণ করা।
**নীতিশাস্ত্র সংস্কৃতি** হলো [_প্রয়োগকৃত নীতিশাস্ত্রকে_ কার্যকর করা](https://hbr.org/2019/05/how-to-design-an-ethical-organization), যাতে আমাদের নৈতিক নীতিমালা এবং অনুশীলনগুলি পুরো প্রতিষ্ঠানের মধ্যে ধারাবাহিক এবং স্কেলযোগ্য পদ্ধতিতে গৃহীত হয়। সফল নীতিশাস্ত্র সংস্কৃতি প্রতিষ্ঠানের নৈতিক নীতিমালা সংজ্ঞায়িত করে, সম্মতির জন্য অর্থবহ প্রণোদনা প্রদান করে এবং প্রতিষ্ঠানের প্রতিটি স্তরে কাঙ্ক্ষিত আচরণকে উৎসাহিত এবং জোরদার করে নীতিশাস্ত্রের মানদণ্ডকে শক্তিশালী করে।
## নীতিশাস্ত্রের ধারণা
এই অংশে, আমরা **শেয়ার করা মূল্যবোধ** (নীতিমালা) এবং **নৈতিক চ্যালেঞ্জ** (সমস্যা) নিয়ে আলোচনা করব ডেটা নীতিশাস্ত্রের জন্য - এবং **কেস স্টাডি** অন্বেষণ করব যা আপনাকে বাস্তব জীবনের প্রেক্ষাপটে এই ধারণাগুলি বুঝতে সহায়তা করবে।
### ১. নীতিশাস্ত্রের নীতিমালা
প্রত্যেক ডেটা নীতিশাস্ত্র কৌশল শুরু হয় _নৈতিক নীতিমালা_ সংজ্ঞায়িত করার মাধ্যমে - "শেয়ার করা মূল্যবোধ" যা গ্রহণযোগ্য আচরণ বর্ণনা করে এবং আমাদের ডেটা ও এআই প্রকল্পে সম্মতিমূলক কর্ম পরিচালনা করে। আপনি এগুলো ব্যক্তিগত বা দলীয় স্তরে সংজ্ঞায়িত করতে পারেন। তবে, বেশিরভাগ বড় প্রতিষ্ঠান এগুলোকে একটি _নৈতিক এআই_ মিশন বিবৃতি বা কাঠামোতে সংজ্ঞায়িত করে যা কর্পোরেট স্তরে সংজ্ঞায়িত এবং সমস্ত দলের মধ্যে ধারাবাহিকভাবে প্রয়োগ করা হয়।
**উদাহরণ:** মাইক্রোসফটের [দায়িত্বশীল এআই](https://www.microsoft.com/en-us/ai/responsible-ai) মিশন বিবৃতি বলে: _"আমরা নৈতিক নীতিমালার দ্বারা চালিত এআই-এর অগ্রগতির জন্য প্রতিশ্রুতিবদ্ধ, যা মানুষকে প্রথমে রাখে"_ - যা নিচের কাঠামোতে ৬টি নৈতিক নীতিমালা চিহ্নিত করে:
![মাইক্রোসফটের দায়িত্বশীল এআই](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png)
চলুন এই নীতিমালাগুলো সংক্ষেপে অন্বেষণ করি। _স্বচ্ছতা_ এবং _দায়িত্বশীলতা_ হলো মৌলিক মূল্যবোধ যার উপর অন্যান্য নীতিমালা নির্মিত হয় - তাই এখান থেকে শুরু করা যাক:
* [**দায়িত্বশীলতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ডেটা ও এআই কার্যক্রম এবং এই নৈতিক নীতিমালার সাথে সম্মতির জন্য অনুশীলনকারীদের _দায়িত্বশীল_ করে তোলে।
* [**স্বচ্ছতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) নিশ্চিত করে যে ডেটা এবং এআই কর্মগুলো ব্যবহারকারীদের জন্য _বোধ্য_ (ব্যাখ্যাযোগ্য), সিদ্ধান্তের পেছনের কী এবং কেন ব্যাখ্যা করে।
* [**ন্যায্যতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - নিশ্চিত করে যে এআই _সব মানুষকে_ ন্যায্যভাবে আচরণ করে, ডেটা এবং সিস্টেমে থাকা যেকোনো পদ্ধতিগত বা অন্তর্নিহিত সামাজিক-প্রযুক্তিগত পক্ষপাতিত্ব মোকাবেলা করে।
* [**নির্ভরযোগ্যতা ও নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - নিশ্চিত করে যে এআই _সংজ্ঞায়িত মূল্যবোধের সাথে সামঞ্জস্যপূর্ণ_ আচরণ করে, সম্ভাব্য ক্ষতি বা অনিচ্ছাকৃত পরিণতি হ্রাস করে।
* [**গোপনীয়তা ও নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ডেটার উত্স বোঝা এবং ব্যবহারকারীদের _ডেটা গোপনীয়তা এবং সংশ্লিষ্ট সুরক্ষা_ প্রদান সম্পর্কে।
* [**অন্তর্ভুক্তি**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - উদ্দেশ্য নিয়ে এআই সমাধান ডিজাইন করার বিষয়ে, এগুলোকে _বিস্তৃত মানব প্রয়োজন এবং সক্ষমতার_ সাথে মানিয়ে নেওয়া।
> 🚨 ভাবুন আপনার ডেটা নীতিশাস্ত্র মিশন বিবৃতি কী হতে পারে। অন্যান্য প্রতিষ্ঠানের নৈতিক এআই কাঠামো অন্বেষণ করুন - এখানে [আইবিএম](https://www.ibm.com/cloud/learn/ai-ethics), [গুগল](https://ai.google/principles), এবং [ফেসবুক](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) থেকে উদাহরণ রয়েছে। তাদের মধ্যে কী শেয়ার করা মূল্যবোধ রয়েছে? এই নীতিমালাগুলো তাদের এআই পণ্য বা শিল্পের সাথে কীভাবে সম্পর্কিত?
### ২. নীতিশাস্ত্রের চ্যালেঞ্জ
যখন আমরা নৈতিক নীতিমালা সংজ্ঞায়িত করি, পরবর্তী ধাপ হলো আমাদের ডেটা এবং এআই কর্মগুলো মূল্যায়ন করা, সেগুলো এই শেয়ার করা মূল্যবোধের সাথে সামঞ্জস্যপূর্ণ কিনা তা দেখতে। আপনার কর্মগুলোকে দুটি বিভাগে ভাবুন: _ডেটা সংগ্রহ_ এবং _অ্যালগরিদম ডিজাইন_
ডেটা সংগ্রহের ক্ষেত্রে, কর্মগুলো সম্ভবত **ব্যক্তিগত ডেটা** বা ব্যক্তিগতভাবে সনাক্তযোগ্য তথ্য (PII) এর সাথে সম্পর্কিত হবে, যা জীবিত ব্যক্তিদের সনাক্ত করতে পারে। এটি [বিভিন্ন ধরনের অ-ব্যক্তিগত ডেটা](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) অন্তর্ভুক্ত করে, যা _সমষ্টিগতভাবে_ একজন ব্যক্তিকে সনাক্ত করে। নৈতিক চ্যালেঞ্জগুলো _ডেটা গোপনীয়তা_, _ডেটা মালিকানা_, এবং _অবগত সম্মতি_ এবং ব্যবহারকারীদের _বুদ্ধিবৃত্তিক সম্পত্তি অধিকার_ এর মতো সম্পর্কিত বিষয়গুলির সাথে সম্পর্কিত হতে পারে।
অ্যালগরিদম ডিজাইনের ক্ষেত্রে, কর্মগুলো **ডেটাসেট** সংগ্রহ এবং কিউরেট করা, তারপর সেগুলো ব্যবহার করে **ডেটা মডেল** প্রশিক্ষণ এবং বাস্তব জীবনের প্রেক্ষাপটে ফলাফল পূর্বাভাস বা সিদ্ধান্ত স্বয়ংক্রিয় করার সাথে সম্পর্কিত হবে। নৈতিক চ্যালেঞ্জগুলো _ডেটাসেট পক্ষপাতিত্ব_, _ডেটা গুণমান_ সমস্যা, _অন্যায্যতা_, এবং অ্যালগরিদমে _ভুল উপস্থাপনা_ থেকে উদ্ভূত হতে পারে - যার মধ্যে কিছু সমস্যা পদ্ধতিগত।
উভয় ক্ষেত্রেই, নীতিশাস্ত্রের চ্যালেঞ্জগুলো এমন ক্ষেত্রগুলো হাইলাইট করে যেখানে আমাদের কর্মগুলো আমাদের শেয়ার করা মূল্যবোধের সাথে দ্বন্দ্বে পড়তে পারে। এগুলো সনাক্ত, প্রশমিত, হ্রাস, বা নির্মূল করতে, আমাদের কর্মগুলোর সাথে সম্পর্কিত নৈতিক "হ্যাঁ/না" প্রশ্ন জিজ্ঞাসা করতে হবে, তারপর প্রয়োজনীয় সংশোধনমূলক ব্যবস্থা নিতে হবে। চলুন কিছু নৈতিক চ্যালেঞ্জ এবং সেগুলো যে নৈতিক প্রশ্ন উত্থাপন করে তা দেখি:
#### ২.১ ডেটা মালিকানা
ডেটা সংগ্রহ প্রায়ই ব্যক্তিগত ডেটার সাথে সম্পর্কিত, যা ডেটা বিষয়গুলোকে সনাক্ত করতে পারে। [ডেটা মালিকানা](https://permission.io/blog/data-ownership) হলো ডেটার সৃষ্ট, প্রক্রিয়াকরণ এবং প্রচারের সাথে সম্পর্কিত _নিয়ন্ত্রণ_ এবং [_ব্যবহারকারীর অধিকার_](https://permission.io/blog/data-ownership)।
আমাদের জিজ্ঞাসা করা নৈতিক প্রশ্নগুলো হলো:
* ডেটার মালিক কে? (ব্যবহারকারী নাকি প্রতিষ্ঠান)
* ডেটা বিষয়গুলোর কী অধিকার রয়েছে? (যেমন: অ্যাক্সেস, মুছে ফেলা, পোর্টেবিলিটি)
* প্রতিষ্ঠানের কী অধিকার রয়েছে? (যেমন: ক্ষতিকারক ব্যবহারকারীর পর্যালোচনা সংশোধন করা)
#### ২.২ অবগত সম্মতি
[অবগত সম্মতি](https://legaldictionary.net/informed-consent/) হলো ব্যবহারকারীদের একটি কর্মে (যেমন ডেটা সংগ্রহ) সম্মতি দেওয়ার কাজ, যেখানে তারা প্রাসঙ্গিক তথ্যের _সম্পূর্ণ বোঝাপড়া_ রাখে, যার মধ্যে উদ্দেশ্য, সম্ভাব্য ঝুঁকি, এবং বিকল্পগুলো অন্তর্ভুক্ত।
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
* ব্যবহারকারী (ডেটা বিষয়) কি ডেটা সংগ্রহ এবং ব্যবহারের জন্য অনুমতি দিয়েছেন?
* ব্যবহারকারী কি বুঝেছেন যে ডেটা কোন উদ্দেশ্যে সংগ্রহ করা হয়েছে?
* ব্যবহারকারী কি তাদের অংশগ্রহণ থেকে সম্ভাব্য ঝুঁকিগুলো বুঝেছেন?
#### ২.৩ বুদ্ধিবৃত্তিক সম্পত্তি
[বুদ্ধিবৃত্তিক সম্পত্তি](https://en.wikipedia.org/wiki/Intellectual_property) হলো মানব উদ্যোগ থেকে উদ্ভূত অমূর্ত সৃষ্টি, যা ব্যক্তিদের বা ব্যবসার জন্য _অর্থনৈতিক মূল্য_ রাখতে পারে।
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
* সংগৃহীত ডেটার কি ব্যবহারকারী বা ব্যবসার জন্য অর্থনৈতিক মূল্য ছিল?
* এখানে ব্যবহারকারীর কি বুদ্ধিবৃত্তিক সম্পত্তি রয়েছে?
* এখানে প্রতিষ্ঠানের কি বুদ্ধিবৃত্তিক সম্পত্তি রয়েছে?
* যদি এই অধিকারগুলো থাকে, আমরা কীভাবে সেগুলো রক্ষা করছি?
#### ২. ডেটা গোপনীয়তা
[ডেটা গোপনীয়তা](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) বা তথ্য গোপনীয়তা হলো ব্যবহারকারীর গোপনীয়তা সংরক্ষণ এবং ব্যক্তিগতভাবে সনাক্তযোগ্য তথ্যের সাথে ব্যবহারকারীর পরিচয় রক্ষা করা।
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
* ব্যবহারকারীদের (ব্যক্তিগত) ডেটা কি হ্যাক এবং লিক থেকে সুরক্ষিত?
* ব্যবহারকারীদের ডেটা কি শুধুমাত্র অনুমোদিত ব্যবহারকারী এবং প্রেক্ষাপটে অ্যাক্সেসযোগ্য?
* ডেটা শেয়ার বা প্রচার করার সময় ব্যবহারকারীদের গোপনীয়তা কি সংরক্ষিত?
* একজন ব্যবহারকারী কি বেনামী ডেটাসেট থেকে সনাক্ত করা যেতে পারে?
#### ২.৫ ভুলে যাওয়ার অধিকার
[ভুলে যাওয়ার অধিকার](https://en.wikipedia.org/wiki/Right_to_be_forgotten) বা [মুছে ফেলার অধিকার](https://www.gdpreu.org/right-to-be-forgotten/) ব্যবহারকারীদের অতিরিক্ত ব্যক্তিগত ডেটা সুরক্ষা প্রদান করে। বিশেষ করে, এটি ব্যবহারকারীদের ইন্টারনেট অনুসন্ধান এবং অন্যান্য স্থানে ব্যক্তিগত ডেটা মুছে ফেলার বা অপসারণের অনুরোধ করার অধিকার দেয়, _নির্দিষ্ট পরিস্থিতিতে_ - তাদের একটি নতুন সূচনা করার অনুমতি দেয় যাতে অতীত কর্ম তাদের বিরুদ্ধে ব্যবহার না হয়।
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
* সিস্টেম কি ডেটা বিষয়গুলোকে মুছে ফেলার অনুরোধ করার অনুমতি দেয়?
* ব্যবহারকারীর সম্মতি প্রত্যাহার কি স্বয়ংক্রিয় মুছে ফেলার ট্রিগার হওয়া উচিত?
* ডেটা কি সম্মতি ছাড়া বা অবৈধ উপায়ে সংগ
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) পরীক্ষা করে দেখে যে কোনো অ্যালগরিদম ডিজাইন কি নির্দিষ্ট ডেটা সাবজেক্টের উপগোষ্ঠীর বিরুদ্ধে পদ্ধতিগতভাবে বৈষম্য করছে কিনা, যার ফলে _বণ্টন_ (যেখানে সেই গোষ্ঠীকে সম্পদ থেকে বঞ্চিত বা আটকে রাখা হয়) এবং _সেবার গুণগত মান_ (যেখানে AI কিছু উপগোষ্ঠীর জন্য অন্যদের তুলনায় কম সঠিক) ক্ষেত্রে [সম্ভাব্য ক্ষতি](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) হতে পারে।
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
* আমরা কি বিভিন্ন উপগোষ্ঠী এবং শর্তের জন্য মডেলের সঠিকতা মূল্যায়ন করেছি?
* আমরা কি সম্ভাব্য ক্ষতির জন্য সিস্টেমটি গভীরভাবে পর্যবেক্ষণ করেছি (যেমন, স্টেরিওটাইপিং)?
* আমরা কি চিহ্নিত ক্ষতি কমানোর জন্য ডেটা সংশোধন বা মডেল পুনরায় প্রশিক্ষণ করতে পারি?
আরও জানার জন্য [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) এর মতো রিসোর্সগুলো অন্বেষণ করুন।
#### 2.9 ভুল উপস্থাপন
[ডেটা ভুল উপস্থাপন](https://www.sciencedirect.com/topics/computer-science/misrepresentation) হলো এই প্রশ্ন করা যে আমরা কি সৎভাবে রিপোর্ট করা ডেটা থেকে অন্তর্দৃষ্টি এমনভাবে উপস্থাপন করছি যা একটি পছন্দসই বর্ণনাকে সমর্থন করার জন্য বিভ্রান্তিকর হতে পারে।
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
* আমরা কি অসম্পূর্ণ বা ভুল ডেটা রিপোর্ট করছি?
* আমরা কি ডেটা এমনভাবে ভিজ্যুয়ালাইজ করছি যা বিভ্রান্তিকর সিদ্ধান্তে পৌঁছাতে সাহায্য করে?
* আমরা কি নির্বাচিত পরিসংখ্যানগত কৌশল ব্যবহার করে ফলাফলকে প্রভাবিত করছি?
* এমন কোনো বিকল্প ব্যাখ্যা আছে কি যা ভিন্ন সিদ্ধান্ত দিতে পারে?
#### 2.10 স্বাধীন পছন্দ
[স্বাধীন পছন্দের ভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ঘটে যখন সিস্টেমের "পছন্দ স্থাপত্য" সিদ্ধান্ত গ্রহণের অ্যালগরিদম ব্যবহার করে মানুষকে একটি পছন্দসই ফলাফলের দিকে ঠেলে দেয়, যদিও তাদের বিকল্প এবং নিয়ন্ত্রণ দেওয়ার ভান করা হয়। এই [ডার্ক প্যাটার্ন](https://www.darkpatterns.org/) ব্যবহারকারীদের সামাজিক এবং অর্থনৈতিক ক্ষতি করতে পারে। যেহেতু ব্যবহারকারীর সিদ্ধান্ত আচরণগত প্রোফাইলকে প্রভাবিত করে, এই পদক্ষেপগুলো ভবিষ্যতের পছন্দগুলোকে আরও বাড়িয়ে বা প্রসারিত করতে পারে।
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
* ব্যবহারকারী কি সেই পছন্দ করার প্রভাবগুলো বুঝতে পেরেছে?
* ব্যবহারকারী কি (বিকল্প) পছন্দ এবং প্রতিটির সুবিধা ও অসুবিধা সম্পর্কে সচেতন ছিল?
* ব্যবহারকারী কি একটি স্বয়ংক্রিয় বা প্রভাবিত পছন্দ পরে পরিবর্তন করতে পারে?
### 3. কেস স্টাডি
এই নৈতিক চ্যালেঞ্জগুলোকে বাস্তব জীবনের প্রেক্ষাপটে রাখার জন্য, এমন কেস স্টাডি দেখা সহায়ক যা নৈতিক লঙ্ঘন উপেক্ষা করার ফলে ব্যক্তি এবং সমাজের উপর সম্ভাব্য ক্ষতি এবং পরিণতি তুলে ধরে।
কিছু উদাহরণ এখানে দেওয়া হলো:
| নৈতিক চ্যালেঞ্জ | কেস স্টাডি |
|--- |--- |
| **সচেতন সম্মতি** | 1972 - [টাস্কিগি সিফিলিস স্টাডি](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - আফ্রিকান আমেরিকান পুরুষদের বিনামূল্যে চিকিৎসার প্রতিশ্রুতি দেওয়া হয়েছিল _কিন্তু প্রতারিত করা হয়েছিল_ গবেষকদের দ্বারা যারা বিষয়গুলোকে তাদের রোগ নির্ণয় বা চিকিৎসার প্রাপ্যতা সম্পর্কে জানায়নি। অনেক বিষয় মারা গিয়েছিল এবং তাদের সঙ্গী বা সন্তান প্রভাবিত হয়েছিল; গবেষণাটি বছর ধরে চলেছিল। |
| **ডেটা গোপনীয়তা** | 2007 - [নেটফ্লিক্স ডেটা প্রাইজ](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) গবেষকদের _৫, গ্রাহকের ১০ মিলিয়ন অ্যানোনিমাইজড মুভি রেটিং_ প্রদান করেছিল সুপারিশ অ্যালগরিদম উন্নত করতে। তবে, গবেষকরা অ্যানোনিমাইজড ডেটাকে _বাহ্যিক ডেটাসেট_ (যেমন, IMDb মন্তব্য) এর সাথে সংযুক্ত করতে সক্ষম হয়েছিল - কার্যত কিছু নেটফ্লিক্স গ্রাহকদের "ডি-অ্যানোনিমাইজ" করে।|
| **সংগ্রহ পক্ষপাত** | 2013 - বোস্টন শহর [স্ট্রিট বাম্প](https://www.boston.gov/transportation/street-bump) তৈরি করেছিল, একটি অ্যাপ যা নাগরিকদের পটহোল রিপোর্ট করতে দেয়, শহরকে ভালো রাস্তার ডেটা প্রদান করে সমস্যা খুঁজে বের করতে এবং ঠিক করতে। তবে, [নিম্ন আয়ের গোষ্ঠীর মানুষের গাড়ি এবং ফোনে কম প্রবেশাধিকার ছিল](https://hbr.org/2013/04/the-hidden-biases-in-big-data), যার ফলে তাদের রাস্তার সমস্যাগুলো এই অ্যাপে অদৃশ্য ছিল। ডেভেলপাররা একাডেমিকদের সাথে কাজ করে _ন্যায্য প্রবেশাধিকার এবং ডিজিটাল বিভাজন_ সমস্যাগুলো সমাধান করেছিল। |
| **অ্যালগরিদমিক ন্যায্যতা** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) লিঙ্গ শ্রেণীবিন্যাস AI পণ্যের সঠিকতা মূল্যায়ন করেছিল, নারীদের এবং রঙের ব্যক্তিদের জন্য সঠিকতার ফাঁকগুলো প্রকাশ করেছিল। একটি [2019 অ্যাপল কার্ড](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) পুরুষদের তুলনায় নারীদের কম ক্রেডিট দিতে দেখা গেছে। উভয়ই অ্যালগরিদমিক পক্ষপাতের সমস্যাগুলোকে তুলে ধরে যা সামাজিক-অর্থনৈতিক ক্ষতি সৃষ্টি করে।|
| **ডেটা ভুল উপস্থাপন** | 2020 - [জর্জিয়া ডিপার্টমেন্ট অফ পাবলিক হেলথ COVID-19 চার্ট প্রকাশ করেছিল](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) যা নিশ্চিত কেসের প্রবণতা সম্পর্কে নাগরিকদের বিভ্রান্ত করতে পারে, x-অক্ষের অ-কালানুক্রমিক ক্রমের মাধ্যমে। এটি ভিজ্যুয়ালাইজেশন কৌশলের মাধ্যমে ভুল উপস্থাপনকে চিত্রিত করে। |
| **স্বাধীন পছন্দের ভ্রম** | 2020 - লার্নিং অ্যাপ [ABCmouse FTC অভিযোগ মেটাতে $10M প্রদান করেছিল](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) যেখানে অভিভাবকরা এমন সাবস্ক্রিপশনে আটকা পড়েছিল যা তারা বাতিল করতে পারেনি। এটি পছন্দ স্থাপত্যে ডার্ক প্যাটার্নকে চিত্রিত করে, যেখানে ব্যবহারকারীদের ক্ষতিকর পছন্দের দিকে ঠেলে দেওয়া হয়েছিল। |
| **ডেটা গোপনীয়তা ও ব্যবহারকারীর অধিকার** | 2021 - ফেসবুক [ডেটা ব্রিচ](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ৫৩০ মিলিয়ন ব্যবহারকারীর ডেটা প্রকাশ করেছিল, যার ফলে FTC-কে $5B জরিমানা দিতে হয়েছিল। তবে, এটি ব্যবহারকারীদের ব্রিচ সম্পর্কে জানাতে অস্বীকার করেছিল, যা ডেটা স্বচ্ছতা এবং প্রবেশাধিকার সম্পর্কে ব্যবহারকারীর অধিকার লঙ্ঘন করে। |
আরও কেস স্টাডি অন্বেষণ করতে চান? এই রিসোর্সগুলো দেখুন:
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - বিভিন্ন শিল্পের নৈতিক দ্বিধা।
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - গুরুত্বপূর্ণ কেস স্টাডি।
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - ডিওন চেকলিস্টের উদাহরণ।
> 🚨 আপনি যে কেস স্টাডিগুলো দেখেছেন তা নিয়ে ভাবুন - আপনার জীবনে কি এমন কোনো নৈতিক চ্যালেঞ্জের অভিজ্ঞতা হয়েছে বা আপনি প্রভাবিত হয়েছেন? আপনি কি এই বিভাগে আলোচনা করা নৈতিক চ্যালেঞ্জগুলোর মধ্যে অন্তত একটি চিত্রিত করে এমন অন্য কোনো কেস স্টাডি ভাবতে পারেন?
## প্রয়োগকৃত নৈতিকতা
আমরা নৈতিকতার ধারণা, চ্যালেঞ্জ এবং বাস্তব জীবনের প্রেক্ষাপটে কেস স্টাডি নিয়ে আলোচনা করেছি। কিন্তু কীভাবে আমরা আমাদের প্রকল্পগুলোতে নৈতিক নীতিমালা এবং অনুশীলন _প্রয়োগ_ করতে শুরু করব? এবং কীভাবে আমরা _অপারেশনালাইজ_ করব এই অনুশীলনগুলোকে ভালো শাসনের জন্য? আসুন কিছু বাস্তব সমাধান অন্বেষণ করি:
### 1. পেশাদার কোড
পেশাদার কোডগুলো সংগঠনগুলোকে তাদের নৈতিক নীতিমালা এবং মিশন বিবৃতিকে সমর্থন করতে সদস্যদের "উৎসাহিত" করার একটি বিকল্প প্রদান করে। কোডগুলো পেশাদার আচরণের জন্য _নৈতিক নির্দেশিকা_ প্রদান করে, যা কর্মচারী বা সদস্যদের সিদ্ধান্ত নিতে সাহায্য করে যা তাদের সংগঠনের নীতিমালার সাথে সামঞ্জস্যপূর্ণ। এগুলো শুধুমাত্র সদস্যদের স্বেচ্ছাসেবী সম্মতির উপর নির্ভর করে কার্যকর; তবে, অনেক সংগঠন সদস্যদের সম্মতি উৎসাহিত করতে অতিরিক্ত পুরস্কার এবং শাস্তি প্রদান করে।
উদাহরণ:
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) নৈতিকতার কোড
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) আচরণবিধি (২০১৩ সালে তৈরি)
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (১৯৯৩ সাল থেকে)
> 🚨 আপনি কি কোনো পেশাদার ইঞ্জিনিয়ারিং বা ডেটা সায়েন্স সংগঠনের সদস্য? তাদের সাইটটি অন্বেষণ করুন এবং দেখুন তারা কি একটি পেশাদার নৈতিকতার কোড সংজ্ঞায়িত করেছে। এটি তাদের নৈতিক নীতিমালা সম্পর্কে কী বলে? তারা কীভাবে সদস্যদের কোড অনুসরণ করতে "উৎসাহিত" করছে?
### 2. নৈতিকতার চেকলিস্ট
যখন পেশাদার কোডগুলো অনুশীলনকারীদের থেকে প্রয়োজনীয় _নৈতিক আচরণ_ সংজ্ঞায়িত করে, তখন সেগুলো [জানা সীমাবদ্ধতা](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) রয়েছে প্রয়োগে, বিশেষত বৃহৎ প্রকল্পগুলোতে। পরিবর্তে, অনেক ডেটা সায়েন্স বিশেষজ্ঞ [চেকলিস্টের](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) পক্ষে যুক্তি দেন, যা **নীতিমালাকে অনুশীলনে** আরও নির্ধারক এবং কার্যকর উপায়ে সংযুক্ত করতে পারে।
চেকলিস্টগুলো প্রশ্নগুলোকে "হ্যাঁ/না" কাজগুলোতে রূপান্তর করে যা অপারেশনালাইজ করা যায়, এবং সেগুলোকে স্ট্যান্ডার্ড প্রোডাক্ট রিলিজ ওয়ার্কফ্লো হিসেবে ট্র্যাক করা যায়।
উদাহরণ:
* [Deon](https://deon.drivendata.org/) - শিল্পের সুপারিশ থেকে তৈরি একটি সাধারণ উদ্দেশ্য ডেটা নৈতিকতার চেকলিস্ট।
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - আইনি এবং সামাজিক এক্সপোজার দৃষ্টিকোণ থেকে তথ্য পরিচালনার অনুশীলনের জন্য সাধারণ নির্দেশিকা প্রদান করে।
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - AI উন্নয়ন চক্রে ন্যায্যতা চেকগুলোর গ্রহণ এবং সংহতকরণ সমর্থন করার জন্য তৈরি।
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - নকশা, বাস্তবায়ন এবং সংগঠনের প্রেক্ষাপটে নৈতিক সমস্যার প্রাথমিক অনুসন্ধানের জন্য কাঠামোবদ্ধ।
### 3. নৈতিকতার নিয়মকানুন
নৈতিকতা হলো ভাগ করা মূল্যবোধ সংজ্ঞায়িত করা এবং _স্বেচ্ছায়_ সঠিক কাজ করা। **অনুগততা** হলো _আইন অনুসরণ করা_ যেখানে এবং যদি সংজ্ঞায়িত করা হয়। **শাসন** ব্যাপকভাবে সংগঠনগুলো কীভাবে নৈতিক নীতিমালা প্রয়োগ এবং প্রতিষ্ঠিত আইন মেনে চলার জন্য পরিচালনা করে তা কভার করে।
আজ, শাসন সংগঠনগুলোর মধ্যে দুটি রূপ নেয়। প্রথমত, এটি **নৈতিক AI** নীতিমালা সংজ্ঞায়িত করা এবং সংগঠনের সমস্ত AI-সম্পর্কিত প্রকল্পে গ্রহণের জন্য অনুশীলন প্রতিষ্ঠা করা। দ্বিতীয়ত, এটি যে অঞ্চলে এটি পরিচালনা করে তার জন্য সমস্ত সরকার-নির্ধারিত **ডেটা সুরক্ষা নিয়মকানুন** মেনে চলার বিষয়।
ডেটা সুরক্ষা এবং গোপনীয়তার নিয়মকানুনের উদাহরণ:
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - _ফেডারেল সরকার_ দ্বারা ব্যক্তিগত তথ্য সংগ্রহ, ব্যবহার এবং প্রকাশ নিয়ন্ত্রণ করে।
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ব্যক্তিগত স্বাস্থ্য ডেটা সুরক্ষা করে।
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ১৩ বছরের কম বয়সী শিশুদের ডেটা গোপনীয়তা সুরক্ষা করে।
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ব্যবহারকারীর অধিকার, ডেটা সুরক্ষা এবং গোপনীয়তা প্রদান করে।
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ভোক্তাদের তাদের (ব্যক্তিগত) ডেটার উপর আরও _অধিকার_ প্রদান করে।
* `2021`, চীনের [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) সম্প্রতি পাস হয়েছে, যা বিশ্বের অন্যতম শক্তিশালী অনলাইন ডেটা গোপনীয়তা নিয়মকানুন তৈরি করেছে।
> 🚨 ইউরোপীয় ইউনিয়ন দ্বারা সংজ্ঞায়িত GDPR (General Data Protection Regulation) আজকের অন্যতম প্রভাবশালী ডেটা গোপনীয়তা নিয়মকানুন। আপনি কি জানেন এটি নাগরিকদের ডিজিটাল গোপনীয়তা এবং ব্যক্তিগত ডেটা সুরক্ষার জন্য [৮টি ব্যবহারকারীর অধিকার](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) সংজ্ঞায়িত করে? জানুন এগুলো কী এবং কেন এগুলো গুরুত্বপূর্ণ।
### 4. নৈতিকতার সংস্কৃতি
লক্ষ্য করুন যে _অনুগততা_ (আইনের "অক্ষর" পূরণ করার জন্য যথেষ্ট করা) এবং [পদ্ধতিগত সমস্যাগুলো](https://www.coursera.org/learn/data-science-ethics/home/week/4) (যেমন, অস্থিরতা, তথ্য অসমতা এবং বিতরণগত অন্যায্যতা) সমাধান করার মধ্যে একটি অদৃশ্য ফাঁক রয়ে গেছে যা AI-এর অস্ত্রায়নকে ত্বরান্বিত করতে পারে।
পরবর্তীটি [নৈতিকতার সংস্কৃতি সংজ্ঞায়িত করার জন্য সহযোগিতামূলক পদ্ধতির](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) আহ্বান করে যা শিল্পের মধ্যে _সংগঠনগুলো_ জুড়ে আবেগগত সংযোগ এবং ধারাবাহিক ভাগ করা মূল্যবোধ তৈরি করে। এটি সংগঠনগুলোতে আরও [আনুষ্ঠানিক ডেটা নৈতিকতার সংস্কৃতি](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) তৈরি করার আহ্বান জানায় - যা _যেকোনো ব্যক্তিকে_ [অ্যান্ডন কর্ড টানতে](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (প্রক্রিয়ার প্রাথমিক পর্যায়ে নৈতিকতার উদ্বেগ উত্থাপন করতে) এবং _নৈতিক মূল্যায়ন_ (যেমন, নিয়োগে) AI প্রকল্পে দল গঠনের একটি মূল মানদণ্ড তৈরি করে।
---
## [পোস্ট-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
## পর্যালোচনা ও স্ব-অধ্যয়ন
কোর্স এবং বইগুলো নৈতিকতার মূল ধারণা এবং চ্যালেঞ্জগুলো বুঝতে সাহায্য করে, যখন কেস স্টাডি এবং টুলগুলো বাস্তব জীবনের প্রেক্ষাপটে প্রয়োগকৃত নৈতিকতার অনুশীলনে সাহায্য করে। শুরু করার জন্য এখানে কিছু রিসোর্স দেওয়া হলো।
* [Machine Learning For Beginners](https://github.com/microsoft/ML-For
* [Responsible AI এর নীতিমালা](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn থেকে বিনামূল্যে শেখার পথ।
* [নৈতিকতা এবং ডেটা সায়েন্স](https://resources.oreilly.com/examples/0636920203964) - O'Reilly ইবুক (M. Loukides, H. Mason প্রমুখ)
* [ডেটা সায়েন্স নৈতিকতা](https://www.coursera.org/learn/data-science-ethics#syllabus) - মিশিগান বিশ্ববিদ্যালয়ের অনলাইন কোর্স।
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - টেক্সাস বিশ্ববিদ্যালয়ের কেস স্টাডি।
# অ্যাসাইনমেন্ট
[ডেটা নৈতিকতার একটি কেস স্টাডি লিখুন](assignment.md)
---
**অস্বীকৃতি**:
এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদ প্রদানের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটিকে প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যা হলে আমরা দায়বদ্ধ থাকব না।