|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
|
|
|
"translation_date": "2025-09-06T07:20:59+00:00",
|
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
|
"language_code": "bn"
|
|
|
}
|
|
|
-->
|
|
|
# ডেটা নীতিশাস্ত্রের পরিচিতি
|
|
|
|
|
|
| দ্বারা ](../../sketchnotes/02-Ethics.png)|
|
|
|
|:---:|
|
|
|
| ডেটা সায়েন্স নীতিশাস্ত্র - _[@nitya](https://twitter.com/nitya) দ্বারা স্কেচনোট_ |
|
|
|
|
|
|
---
|
|
|
|
|
|
আমরা সবাই একটি ডেটা-নির্ভর জগতে ডেটা নাগরিক হিসেবে বসবাস করছি।
|
|
|
|
|
|
বাজারের প্রবণতা আমাদের জানায় যে ২০২২ সালের মধ্যে, প্রতি তিনটি বড় প্রতিষ্ঠানের মধ্যে একটি তাদের ডেটা অনলাইনে [মার্কেটপ্লেস এবং এক্সচেঞ্জের](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) মাধ্যমে ক্রয়-বিক্রয় করবে। **অ্যাপ ডেভেলপারদের** জন্য, ডেটা-চালিত অন্তর্দৃষ্টি এবং অ্যালগরিদম-চালিত স্বয়ংক্রিয়তাকে দৈনন্দিন ব্যবহারকারীর অভিজ্ঞতায় সংহত করা আরও সহজ এবং সাশ্রয়ী হবে। তবে, এআই সর্বব্যাপী হয়ে উঠলে, আমাদের এটাও বুঝতে হবে যে [অস্ত্রায়ন](https://www.youtube.com/watch?v=TQHs8SA1qpk) এর মাধ্যমে বড় পরিসরে এই অ্যালগরিদমগুলো কী ধরনের ক্ষতি করতে পারে।
|
|
|
|
|
|
প্রবণতা আরও দেখায় যে ২০২৫ সালের মধ্যে আমরা [১৮০ জেটাবাইটেরও বেশি](https://www.statista.com/statistics/871513/worldwide-data-created/) ডেটা তৈরি এবং ব্যবহার করব। **ডেটা বিজ্ঞানীদের** জন্য, এটি আমাদের ব্যক্তিগত ডেটার অভূতপূর্ব স্তরে প্রবেশাধিকার দেয়। এর মানে আমরা ব্যবহারকারীদের আচরণগত প্রোফাইল তৈরি করতে পারি এবং এমনভাবে সিদ্ধান্ত গ্রহণে প্রভাব ফেলতে পারি যা [মুক্ত পছন্দের ভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) তৈরি করে, তবে ব্যবহারকারীদের আমাদের পছন্দসই ফলাফলের দিকে ঠেলে দেয়। এটি ডেটা গোপনীয়তা এবং ব্যবহারকারীর সুরক্ষার উপর আরও বিস্তৃত প্রশ্নও উত্থাপন করে।
|
|
|
|
|
|
ডেটা নীতিশাস্ত্র এখন ডেটা বিজ্ঞান এবং প্রকৌশলের জন্য _প্রয়োজনীয় গার্ডরেল_, যা আমাদের ডেটা-চালিত কর্ম থেকে সম্ভাব্য ক্ষতি এবং অনিচ্ছাকৃত পরিণতি হ্রাস করতে সহায়তা করে। [গার্টনার হাইপ সাইকেল ফর এআই](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ডিজিটাল নীতিশাস্ত্র, দায়িত্বশীল এআই এবং এআই গভর্নেন্সের মতো প্রবণতাগুলিকে বড় মেগাট্রেন্ডগুলির মূল চালক হিসাবে চিহ্নিত করে, যেমন এআই-এর _গণতন্ত্রায়ন_ এবং _শিল্পায়ন_।
|
|
|
|
|
|

|
|
|
|
|
|
এই পাঠে, আমরা ডেটা নীতিশাস্ত্রের চমকপ্রদ ক্ষেত্রটি অন্বেষণ করব - মূল ধারণা এবং চ্যালেঞ্জ থেকে শুরু করে কেস স্টাডি এবং গভর্নেন্সের মতো প্রয়োগকৃত এআই ধারণা পর্যন্ত - যা ডেটা এবং এআই নিয়ে কাজ করা দল এবং প্রতিষ্ঠানে একটি নীতিশাস্ত্র সংস্কৃতি প্রতিষ্ঠায় সহায়তা করে।
|
|
|
|
|
|
|
|
|
## [পাঠ-পূর্ব কুইজ](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
|
|
|
|
|
|
## মৌলিক সংজ্ঞা
|
|
|
|
|
|
চলুন মৌলিক পরিভাষা বোঝা দিয়ে শুরু করি।
|
|
|
|
|
|
"নীতিশাস্ত্র" শব্দটি এসেছে [গ্রিক শব্দ "ethikos"](https://en.wikipedia.org/wiki/Ethics) (এবং এর মূল "ethos") থেকে, যার অর্থ _চরিত্র বা নৈতিক প্রকৃতি_।
|
|
|
|
|
|
**নীতিশাস্ত্র** হলো সেই শেয়ার করা মূল্যবোধ এবং নৈতিক নীতিমালা যা সমাজে আমাদের আচরণ নিয়ন্ত্রণ করে। নীতিশাস্ত্র আইন নয়, বরং "সঠিক বনাম ভুল" সম্পর্কে সর্বজনীনভাবে গৃহীত মানদণ্ডের উপর ভিত্তি করে। তবে, নৈতিক বিবেচনা কর্পোরেট গভর্নেন্স উদ্যোগ এবং সরকারী বিধিমালাকে প্রভাবিত করতে পারে, যা সম্মতির জন্য আরও প্রণোদনা তৈরি করে।
|
|
|
|
|
|
**ডেটা নীতিশাস্ত্র** হলো নীতিশাস্ত্রের একটি [নতুন শাখা](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1), যা "_ডেটা, অ্যালগরিদম এবং সংশ্লিষ্ট অনুশীলন_" সম্পর্কিত নৈতিক সমস্যাগুলি অধ্যয়ন এবং মূল্যায়ন করে। এখানে, **"ডেটা"** জেনারেশন, রেকর্ডিং, কিউরেশন, প্রসেসিং, প্রচার, শেয়ারিং এবং ব্যবহারের সাথে সম্পর্কিত ক্রিয়াকলাপগুলিতে ফোকাস করে, **"অ্যালগরিদম"** এআই, এজেন্ট, মেশিন লার্নিং এবং রোবটগুলিতে ফোকাস করে, এবং **"অনুশীলন"** দায়িত্বশীল উদ্ভাবন, প্রোগ্রামিং, হ্যাকিং এবং নীতিশাস্ত্র কোডের মতো বিষয়গুলিতে ফোকাস করে।
|
|
|
|
|
|
**প্রয়োগকৃত নীতিশাস্ত্র** হলো নৈতিক বিবেচনার [ব্যবহারিক প্রয়োগ](https://en.wikipedia.org/wiki/Applied_ethics)। এটি হলো _বাস্তব জীবনের কর্ম, পণ্য এবং প্রক্রিয়ার_ প্রেক্ষাপটে নৈতিক বিষয়গুলি সক্রিয়ভাবে তদন্ত করার প্রক্রিয়া এবং আমাদের সংজ্ঞায়িত নৈতিক মূল্যবোধের সাথে সঙ্গতিপূর্ণ রাখতে সংশোধনমূলক ব্যবস্থা গ্রহণ করা।
|
|
|
|
|
|
**নীতিশাস্ত্র সংস্কৃতি** হলো [_প্রয়োগকৃত নীতিশাস্ত্রকে_ কার্যকর করা](https://hbr.org/2019/05/how-to-design-an-ethical-organization), যাতে আমাদের নৈতিক নীতিমালা এবং অনুশীলনগুলি পুরো প্রতিষ্ঠানের মধ্যে ধারাবাহিক এবং স্কেলযোগ্য পদ্ধতিতে গৃহীত হয়। সফল নীতিশাস্ত্র সংস্কৃতি প্রতিষ্ঠানের নৈতিক নীতিমালা সংজ্ঞায়িত করে, সম্মতির জন্য অর্থবহ প্রণোদনা প্রদান করে এবং প্রতিষ্ঠানের প্রতিটি স্তরে কাঙ্ক্ষিত আচরণকে উৎসাহিত এবং জোরদার করে নীতিশাস্ত্রের মানদণ্ডকে শক্তিশালী করে।
|
|
|
|
|
|
|
|
|
## নীতিশাস্ত্রের ধারণা
|
|
|
|
|
|
এই অংশে, আমরা **শেয়ার করা মূল্যবোধ** (নীতিমালা) এবং **নৈতিক চ্যালেঞ্জ** (সমস্যা) নিয়ে আলোচনা করব ডেটা নীতিশাস্ত্রের জন্য - এবং **কেস স্টাডি** অন্বেষণ করব যা আপনাকে বাস্তব জীবনের প্রেক্ষাপটে এই ধারণাগুলি বুঝতে সহায়তা করবে।
|
|
|
|
|
|
### ১. নীতিশাস্ত্রের নীতিমালা
|
|
|
|
|
|
প্রত্যেক ডেটা নীতিশাস্ত্র কৌশল শুরু হয় _নৈতিক নীতিমালা_ সংজ্ঞায়িত করার মাধ্যমে - "শেয়ার করা মূল্যবোধ" যা গ্রহণযোগ্য আচরণ বর্ণনা করে এবং আমাদের ডেটা ও এআই প্রকল্পে সম্মতিমূলক কর্ম পরিচালনা করে। আপনি এগুলো ব্যক্তিগত বা দলীয় স্তরে সংজ্ঞায়িত করতে পারেন। তবে, বেশিরভাগ বড় প্রতিষ্ঠান এগুলোকে একটি _নৈতিক এআই_ মিশন বিবৃতি বা কাঠামোতে সংজ্ঞায়িত করে যা কর্পোরেট স্তরে সংজ্ঞায়িত এবং সমস্ত দলের মধ্যে ধারাবাহিকভাবে প্রয়োগ করা হয়।
|
|
|
|
|
|
**উদাহরণ:** মাইক্রোসফটের [দায়িত্বশীল এআই](https://www.microsoft.com/en-us/ai/responsible-ai) মিশন বিবৃতি বলে: _"আমরা নৈতিক নীতিমালার দ্বারা চালিত এআই-এর অগ্রগতির জন্য প্রতিশ্রুতিবদ্ধ, যা মানুষকে প্রথমে রাখে"_ - যা নিচের কাঠামোতে ৬টি নৈতিক নীতিমালা চিহ্নিত করে:
|
|
|
|
|
|

|
|
|
|
|
|
চলুন এই নীতিমালাগুলো সংক্ষেপে অন্বেষণ করি। _স্বচ্ছতা_ এবং _দায়িত্বশীলতা_ হলো মৌলিক মূল্যবোধ যার উপর অন্যান্য নীতিমালা নির্মিত হয় - তাই এখান থেকে শুরু করা যাক:
|
|
|
|
|
|
* [**দায়িত্বশীলতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) ডেটা ও এআই কার্যক্রম এবং এই নৈতিক নীতিমালার সাথে সম্মতির জন্য অনুশীলনকারীদের _দায়িত্বশীল_ করে তোলে।
|
|
|
* [**স্বচ্ছতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) নিশ্চিত করে যে ডেটা এবং এআই কর্মগুলো ব্যবহারকারীদের জন্য _বোধ্য_ (ব্যাখ্যাযোগ্য), সিদ্ধান্তের পেছনের কী এবং কেন ব্যাখ্যা করে।
|
|
|
* [**ন্যায্যতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - নিশ্চিত করে যে এআই _সব মানুষকে_ ন্যায্যভাবে আচরণ করে, ডেটা এবং সিস্টেমে থাকা যেকোনো পদ্ধতিগত বা অন্তর্নিহিত সামাজিক-প্রযুক্তিগত পক্ষপাতিত্ব মোকাবেলা করে।
|
|
|
* [**নির্ভরযোগ্যতা ও নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - নিশ্চিত করে যে এআই _সংজ্ঞায়িত মূল্যবোধের সাথে সামঞ্জস্যপূর্ণ_ আচরণ করে, সম্ভাব্য ক্ষতি বা অনিচ্ছাকৃত পরিণতি হ্রাস করে।
|
|
|
* [**গোপনীয়তা ও নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ডেটার উত্স বোঝা এবং ব্যবহারকারীদের _ডেটা গোপনীয়তা এবং সংশ্লিষ্ট সুরক্ষা_ প্রদান সম্পর্কে।
|
|
|
* [**অন্তর্ভুক্তি**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - উদ্দেশ্য নিয়ে এআই সমাধান ডিজাইন করার বিষয়ে, এগুলোকে _বিস্তৃত মানব প্রয়োজন এবং সক্ষমতার_ সাথে মানিয়ে নেওয়া।
|
|
|
|
|
|
> 🚨 ভাবুন আপনার ডেটা নীতিশাস্ত্র মিশন বিবৃতি কী হতে পারে। অন্যান্য প্রতিষ্ঠানের নৈতিক এআই কাঠামো অন্বেষণ করুন - এখানে [আইবিএম](https://www.ibm.com/cloud/learn/ai-ethics), [গুগল](https://ai.google/principles), এবং [ফেসবুক](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) থেকে উদাহরণ রয়েছে। তাদের মধ্যে কী শেয়ার করা মূল্যবোধ রয়েছে? এই নীতিমালাগুলো তাদের এআই পণ্য বা শিল্পের সাথে কীভাবে সম্পর্কিত?
|
|
|
|
|
|
### ২. নীতিশাস্ত্রের চ্যালেঞ্জ
|
|
|
|
|
|
যখন আমরা নৈতিক নীতিমালা সংজ্ঞায়িত করি, পরবর্তী ধাপ হলো আমাদের ডেটা এবং এআই কর্মগুলো মূল্যায়ন করা, সেগুলো এই শেয়ার করা মূল্যবোধের সাথে সামঞ্জস্যপূর্ণ কিনা তা দেখতে। আপনার কর্মগুলোকে দুটি বিভাগে ভাবুন: _ডেটা সংগ্রহ_ এবং _অ্যালগরিদম ডিজাইন_।
|
|
|
|
|
|
ডেটা সংগ্রহের ক্ষেত্রে, কর্মগুলো সম্ভবত **ব্যক্তিগত ডেটা** বা ব্যক্তিগতভাবে সনাক্তযোগ্য তথ্য (PII) এর সাথে সম্পর্কিত হবে, যা জীবিত ব্যক্তিদের সনাক্ত করতে পারে। এটি [বিভিন্ন ধরনের অ-ব্যক্তিগত ডেটা](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) অন্তর্ভুক্ত করে, যা _সমষ্টিগতভাবে_ একজন ব্যক্তিকে সনাক্ত করে। নৈতিক চ্যালেঞ্জগুলো _ডেটা গোপনীয়তা_, _ডেটা মালিকানা_, এবং _অবগত সম্মতি_ এবং ব্যবহারকারীদের _বুদ্ধিবৃত্তিক সম্পত্তি অধিকার_ এর মতো সম্পর্কিত বিষয়গুলির সাথে সম্পর্কিত হতে পারে।
|
|
|
|
|
|
অ্যালগরিদম ডিজাইনের ক্ষেত্রে, কর্মগুলো **ডেটাসেট** সংগ্রহ এবং কিউরেট করা, তারপর সেগুলো ব্যবহার করে **ডেটা মডেল** প্রশিক্ষণ এবং বাস্তব জীবনের প্রেক্ষাপটে ফলাফল পূর্বাভাস বা সিদ্ধান্ত স্বয়ংক্রিয় করার সাথে সম্পর্কিত হবে। নৈতিক চ্যালেঞ্জগুলো _ডেটাসেট পক্ষপাতিত্ব_, _ডেটা গুণমান_ সমস্যা, _অন্যায্যতা_, এবং অ্যালগরিদমে _ভুল উপস্থাপনা_ থেকে উদ্ভূত হতে পারে - যার মধ্যে কিছু সমস্যা পদ্ধতিগত।
|
|
|
|
|
|
উভয় ক্ষেত্রেই, নীতিশাস্ত্রের চ্যালেঞ্জগুলো এমন ক্ষেত্রগুলো হাইলাইট করে যেখানে আমাদের কর্মগুলো আমাদের শেয়ার করা মূল্যবোধের সাথে দ্বন্দ্বে পড়তে পারে। এগুলো সনাক্ত, প্রশমিত, হ্রাস, বা নির্মূল করতে, আমাদের কর্মগুলোর সাথে সম্পর্কিত নৈতিক "হ্যাঁ/না" প্রশ্ন জিজ্ঞাসা করতে হবে, তারপর প্রয়োজনীয় সংশোধনমূলক ব্যবস্থা নিতে হবে। চলুন কিছু নৈতিক চ্যালেঞ্জ এবং সেগুলো যে নৈতিক প্রশ্ন উত্থাপন করে তা দেখি:
|
|
|
|
|
|
|
|
|
#### ২.১ ডেটা মালিকানা
|
|
|
|
|
|
ডেটা সংগ্রহ প্রায়ই ব্যক্তিগত ডেটার সাথে সম্পর্কিত, যা ডেটা বিষয়গুলোকে সনাক্ত করতে পারে। [ডেটা মালিকানা](https://permission.io/blog/data-ownership) হলো ডেটার সৃষ্ট, প্রক্রিয়াকরণ এবং প্রচারের সাথে সম্পর্কিত _নিয়ন্ত্রণ_ এবং [_ব্যবহারকারীর অধিকার_](https://permission.io/blog/data-ownership)।
|
|
|
|
|
|
আমাদের জিজ্ঞাসা করা নৈতিক প্রশ্নগুলো হলো:
|
|
|
* ডেটার মালিক কে? (ব্যবহারকারী নাকি প্রতিষ্ঠান)
|
|
|
* ডেটা বিষয়গুলোর কী অধিকার রয়েছে? (যেমন: অ্যাক্সেস, মুছে ফেলা, পোর্টেবিলিটি)
|
|
|
* প্রতিষ্ঠানের কী অধিকার রয়েছে? (যেমন: ক্ষতিকারক ব্যবহারকারীর পর্যালোচনা সংশোধন করা)
|
|
|
|
|
|
#### ২.২ অবগত সম্মতি
|
|
|
|
|
|
[অবগত সম্মতি](https://legaldictionary.net/informed-consent/) হলো ব্যবহারকারীদের একটি কর্মে (যেমন ডেটা সংগ্রহ) সম্মতি দেওয়ার কাজ, যেখানে তারা প্রাসঙ্গিক তথ্যের _সম্পূর্ণ বোঝাপড়া_ রাখে, যার মধ্যে উদ্দেশ্য, সম্ভাব্য ঝুঁকি, এবং বিকল্পগুলো অন্তর্ভুক্ত।
|
|
|
|
|
|
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
|
|
|
* ব্যবহারকারী (ডেটা বিষয়) কি ডেটা সংগ্রহ এবং ব্যবহারের জন্য অনুমতি দিয়েছেন?
|
|
|
* ব্যবহারকারী কি বুঝেছেন যে ডেটা কোন উদ্দেশ্যে সংগ্রহ করা হয়েছে?
|
|
|
* ব্যবহারকারী কি তাদের অংশগ্রহণ থেকে সম্ভাব্য ঝুঁকিগুলো বুঝেছেন?
|
|
|
|
|
|
#### ২.৩ বুদ্ধিবৃত্তিক সম্পত্তি
|
|
|
|
|
|
[বুদ্ধিবৃত্তিক সম্পত্তি](https://en.wikipedia.org/wiki/Intellectual_property) হলো মানব উদ্যোগ থেকে উদ্ভূত অমূর্ত সৃষ্টি, যা ব্যক্তিদের বা ব্যবসার জন্য _অর্থনৈতিক মূল্য_ রাখতে পারে।
|
|
|
|
|
|
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
|
|
|
* সংগৃহীত ডেটার কি ব্যবহারকারী বা ব্যবসার জন্য অর্থনৈতিক মূল্য ছিল?
|
|
|
* এখানে ব্যবহারকারীর কি বুদ্ধিবৃত্তিক সম্পত্তি রয়েছে?
|
|
|
* এখানে প্রতিষ্ঠানের কি বুদ্ধিবৃত্তিক সম্পত্তি রয়েছে?
|
|
|
* যদি এই অধিকারগুলো থাকে, আমরা কীভাবে সেগুলো রক্ষা করছি?
|
|
|
|
|
|
#### ২.৪ ডেটা গোপনীয়তা
|
|
|
|
|
|
[ডেটা গোপনীয়তা](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) বা তথ্য গোপনীয়তা হলো ব্যবহারকারীর গোপনীয়তা সংরক্ষণ এবং ব্যক্তিগতভাবে সনাক্তযোগ্য তথ্যের সাথে ব্যবহারকারীর পরিচয় রক্ষা করা।
|
|
|
|
|
|
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
|
|
|
* ব্যবহারকারীদের (ব্যক্তিগত) ডেটা কি হ্যাক এবং লিক থেকে সুরক্ষিত?
|
|
|
* ব্যবহারকারীদের ডেটা কি শুধুমাত্র অনুমোদিত ব্যবহারকারী এবং প্রেক্ষাপটে অ্যাক্সেসযোগ্য?
|
|
|
* ডেটা শেয়ার বা প্রচার করার সময় ব্যবহারকারীদের গোপনীয়তা কি সংরক্ষিত?
|
|
|
* একজন ব্যবহারকারী কি বেনামী ডেটাসেট থেকে সনাক্ত করা যেতে পারে?
|
|
|
|
|
|
#### ২.৫ ভুলে যাওয়ার অধিকার
|
|
|
|
|
|
[ভুলে যাওয়ার অধিকার](https://en.wikipedia.org/wiki/Right_to_be_forgotten) বা [মুছে ফেলার অধিকার](https://www.gdpreu.org/right-to-be-forgotten/) ব্যবহারকারীদের অতিরিক্ত ব্যক্তিগত ডেটা সুরক্ষা প্রদান করে। বিশেষ করে, এটি ব্যবহারকারীদের ইন্টারনেট অনুসন্ধান এবং অন্যান্য স্থানে ব্যক্তিগত ডেটা মুছে ফেলার বা অপসারণের অনুরোধ করার অধিকার দেয়, _নির্দিষ্ট পরিস্থিতিতে_ - তাদের একটি নতুন সূচনা করার অনুমতি দেয় যাতে অতীত কর্ম তাদের বিরুদ্ধে ব্যবহার না হয়।
|
|
|
|
|
|
এখানে অন্বেষণ করার প্রশ্নগুলো হলো:
|
|
|
* সিস্টেম কি ডেটা বিষয়গুলোকে মুছে ফেলার অনুরোধ করার অনুমতি দেয়?
|
|
|
* ব্যবহারকারীর সম্মতি প্রত্যাহার কি স্বয়ংক্রিয় মুছে ফেলার ট্রিগার হওয়া উচিত?
|
|
|
* ডেটা কি সম্মতি ছাড়া বা অবৈধ উপায়ে সংগ
|
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) পরীক্ষা করে দেখে যে কোনো অ্যালগরিদম ডিজাইন কি নির্দিষ্ট ডেটা সাবজেক্টের উপগোষ্ঠীর বিরুদ্ধে পদ্ধতিগতভাবে বৈষম্য করছে কিনা, যার ফলে _বণ্টন_ (যেখানে সেই গোষ্ঠীকে সম্পদ থেকে বঞ্চিত বা আটকে রাখা হয়) এবং _সেবার গুণগত মান_ (যেখানে AI কিছু উপগোষ্ঠীর জন্য অন্যদের তুলনায় কম সঠিক) ক্ষেত্রে [সম্ভাব্য ক্ষতি](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) হতে পারে।
|
|
|
|
|
|
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
|
|
|
* আমরা কি বিভিন্ন উপগোষ্ঠী এবং শর্তের জন্য মডেলের সঠিকতা মূল্যায়ন করেছি?
|
|
|
* আমরা কি সম্ভাব্য ক্ষতির জন্য সিস্টেমটি গভীরভাবে পর্যবেক্ষণ করেছি (যেমন, স্টেরিওটাইপিং)?
|
|
|
* আমরা কি চিহ্নিত ক্ষতি কমানোর জন্য ডেটা সংশোধন বা মডেল পুনরায় প্রশিক্ষণ করতে পারি?
|
|
|
|
|
|
আরও জানার জন্য [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) এর মতো রিসোর্সগুলো অন্বেষণ করুন।
|
|
|
|
|
|
#### 2.9 ভুল উপস্থাপন
|
|
|
|
|
|
[ডেটা ভুল উপস্থাপন](https://www.sciencedirect.com/topics/computer-science/misrepresentation) হলো এই প্রশ্ন করা যে আমরা কি সৎভাবে রিপোর্ট করা ডেটা থেকে অন্তর্দৃষ্টি এমনভাবে উপস্থাপন করছি যা একটি পছন্দসই বর্ণনাকে সমর্থন করার জন্য বিভ্রান্তিকর হতে পারে।
|
|
|
|
|
|
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
|
|
|
* আমরা কি অসম্পূর্ণ বা ভুল ডেটা রিপোর্ট করছি?
|
|
|
* আমরা কি ডেটা এমনভাবে ভিজ্যুয়ালাইজ করছি যা বিভ্রান্তিকর সিদ্ধান্তে পৌঁছাতে সাহায্য করে?
|
|
|
* আমরা কি নির্বাচিত পরিসংখ্যানগত কৌশল ব্যবহার করে ফলাফলকে প্রভাবিত করছি?
|
|
|
* এমন কোনো বিকল্প ব্যাখ্যা আছে কি যা ভিন্ন সিদ্ধান্ত দিতে পারে?
|
|
|
|
|
|
#### 2.10 স্বাধীন পছন্দ
|
|
|
[স্বাধীন পছন্দের ভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ঘটে যখন সিস্টেমের "পছন্দ স্থাপত্য" সিদ্ধান্ত গ্রহণের অ্যালগরিদম ব্যবহার করে মানুষকে একটি পছন্দসই ফলাফলের দিকে ঠেলে দেয়, যদিও তাদের বিকল্প এবং নিয়ন্ত্রণ দেওয়ার ভান করা হয়। এই [ডার্ক প্যাটার্ন](https://www.darkpatterns.org/) ব্যবহারকারীদের সামাজিক এবং অর্থনৈতিক ক্ষতি করতে পারে। যেহেতু ব্যবহারকারীর সিদ্ধান্ত আচরণগত প্রোফাইলকে প্রভাবিত করে, এই পদক্ষেপগুলো ভবিষ্যতের পছন্দগুলোকে আরও বাড়িয়ে বা প্রসারিত করতে পারে।
|
|
|
|
|
|
এখানে অনুসন্ধানের জন্য কিছু প্রশ্ন:
|
|
|
* ব্যবহারকারী কি সেই পছন্দ করার প্রভাবগুলো বুঝতে পেরেছে?
|
|
|
* ব্যবহারকারী কি (বিকল্প) পছন্দ এবং প্রতিটির সুবিধা ও অসুবিধা সম্পর্কে সচেতন ছিল?
|
|
|
* ব্যবহারকারী কি একটি স্বয়ংক্রিয় বা প্রভাবিত পছন্দ পরে পরিবর্তন করতে পারে?
|
|
|
|
|
|
### 3. কেস স্টাডি
|
|
|
|
|
|
এই নৈতিক চ্যালেঞ্জগুলোকে বাস্তব জীবনের প্রেক্ষাপটে রাখার জন্য, এমন কেস স্টাডি দেখা সহায়ক যা নৈতিক লঙ্ঘন উপেক্ষা করার ফলে ব্যক্তি এবং সমাজের উপর সম্ভাব্য ক্ষতি এবং পরিণতি তুলে ধরে।
|
|
|
|
|
|
কিছু উদাহরণ এখানে দেওয়া হলো:
|
|
|
|
|
|
| নৈতিক চ্যালেঞ্জ | কেস স্টাডি |
|
|
|
|--- |--- |
|
|
|
| **সচেতন সম্মতি** | 1972 - [টাস্কিগি সিফিলিস স্টাডি](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - আফ্রিকান আমেরিকান পুরুষদের বিনামূল্যে চিকিৎসার প্রতিশ্রুতি দেওয়া হয়েছিল _কিন্তু প্রতারিত করা হয়েছিল_ গবেষকদের দ্বারা যারা বিষয়গুলোকে তাদের রোগ নির্ণয় বা চিকিৎসার প্রাপ্যতা সম্পর্কে জানায়নি। অনেক বিষয় মারা গিয়েছিল এবং তাদের সঙ্গী বা সন্তান প্রভাবিত হয়েছিল; গবেষণাটি ৪০ বছর ধরে চলেছিল। |
|
|
|
| **ডেটা গোপনীয়তা** | 2007 - [নেটফ্লিক্স ডেটা প্রাইজ](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) গবেষকদের _৫০,০০০ গ্রাহকের ১০ মিলিয়ন অ্যানোনিমাইজড মুভি রেটিং_ প্রদান করেছিল সুপারিশ অ্যালগরিদম উন্নত করতে। তবে, গবেষকরা অ্যানোনিমাইজড ডেটাকে _বাহ্যিক ডেটাসেট_ (যেমন, IMDb মন্তব্য) এর সাথে সংযুক্ত করতে সক্ষম হয়েছিল - কার্যত কিছু নেটফ্লিক্স গ্রাহকদের "ডি-অ্যানোনিমাইজ" করে।|
|
|
|
| **সংগ্রহ পক্ষপাত** | 2013 - বোস্টন শহর [স্ট্রিট বাম্প](https://www.boston.gov/transportation/street-bump) তৈরি করেছিল, একটি অ্যাপ যা নাগরিকদের পটহোল রিপোর্ট করতে দেয়, শহরকে ভালো রাস্তার ডেটা প্রদান করে সমস্যা খুঁজে বের করতে এবং ঠিক করতে। তবে, [নিম্ন আয়ের গোষ্ঠীর মানুষের গাড়ি এবং ফোনে কম প্রবেশাধিকার ছিল](https://hbr.org/2013/04/the-hidden-biases-in-big-data), যার ফলে তাদের রাস্তার সমস্যাগুলো এই অ্যাপে অদৃশ্য ছিল। ডেভেলপাররা একাডেমিকদের সাথে কাজ করে _ন্যায্য প্রবেশাধিকার এবং ডিজিটাল বিভাজন_ সমস্যাগুলো সমাধান করেছিল। |
|
|
|
| **অ্যালগরিদমিক ন্যায্যতা** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) লিঙ্গ শ্রেণীবিন্যাস AI পণ্যের সঠিকতা মূল্যায়ন করেছিল, নারীদের এবং রঙের ব্যক্তিদের জন্য সঠিকতার ফাঁকগুলো প্রকাশ করেছিল। একটি [2019 অ্যাপল কার্ড](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) পুরুষদের তুলনায় নারীদের কম ক্রেডিট দিতে দেখা গেছে। উভয়ই অ্যালগরিদমিক পক্ষপাতের সমস্যাগুলোকে তুলে ধরে যা সামাজিক-অর্থনৈতিক ক্ষতি সৃষ্টি করে।|
|
|
|
| **ডেটা ভুল উপস্থাপন** | 2020 - [জর্জিয়া ডিপার্টমেন্ট অফ পাবলিক হেলথ COVID-19 চার্ট প্রকাশ করেছিল](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) যা নিশ্চিত কেসের প্রবণতা সম্পর্কে নাগরিকদের বিভ্রান্ত করতে পারে, x-অক্ষের অ-কালানুক্রমিক ক্রমের মাধ্যমে। এটি ভিজ্যুয়ালাইজেশন কৌশলের মাধ্যমে ভুল উপস্থাপনকে চিত্রিত করে। |
|
|
|
| **স্বাধীন পছন্দের ভ্রম** | 2020 - লার্নিং অ্যাপ [ABCmouse FTC অভিযোগ মেটাতে $10M প্রদান করেছিল](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) যেখানে অভিভাবকরা এমন সাবস্ক্রিপশনে আটকা পড়েছিল যা তারা বাতিল করতে পারেনি। এটি পছন্দ স্থাপত্যে ডার্ক প্যাটার্নকে চিত্রিত করে, যেখানে ব্যবহারকারীদের ক্ষতিকর পছন্দের দিকে ঠেলে দেওয়া হয়েছিল। |
|
|
|
| **ডেটা গোপনীয়তা ও ব্যবহারকারীর অধিকার** | 2021 - ফেসবুক [ডেটা ব্রিচ](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ৫৩০ মিলিয়ন ব্যবহারকারীর ডেটা প্রকাশ করেছিল, যার ফলে FTC-কে $5B জরিমানা দিতে হয়েছিল। তবে, এটি ব্যবহারকারীদের ব্রিচ সম্পর্কে জানাতে অস্বীকার করেছিল, যা ডেটা স্বচ্ছতা এবং প্রবেশাধিকার সম্পর্কে ব্যবহারকারীর অধিকার লঙ্ঘন করে। |
|
|
|
|
|
|
আরও কেস স্টাডি অন্বেষণ করতে চান? এই রিসোর্সগুলো দেখুন:
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - বিভিন্ন শিল্পের নৈতিক দ্বিধা।
|
|
|
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - গুরুত্বপূর্ণ কেস স্টাডি।
|
|
|
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - ডিওন চেকলিস্টের উদাহরণ।
|
|
|
|
|
|
> 🚨 আপনি যে কেস স্টাডিগুলো দেখেছেন তা নিয়ে ভাবুন - আপনার জীবনে কি এমন কোনো নৈতিক চ্যালেঞ্জের অভিজ্ঞতা হয়েছে বা আপনি প্রভাবিত হয়েছেন? আপনি কি এই বিভাগে আলোচনা করা নৈতিক চ্যালেঞ্জগুলোর মধ্যে অন্তত একটি চিত্রিত করে এমন অন্য কোনো কেস স্টাডি ভাবতে পারেন?
|
|
|
|
|
|
## প্রয়োগকৃত নৈতিকতা
|
|
|
|
|
|
আমরা নৈতিকতার ধারণা, চ্যালেঞ্জ এবং বাস্তব জীবনের প্রেক্ষাপটে কেস স্টাডি নিয়ে আলোচনা করেছি। কিন্তু কীভাবে আমরা আমাদের প্রকল্পগুলোতে নৈতিক নীতিমালা এবং অনুশীলন _প্রয়োগ_ করতে শুরু করব? এবং কীভাবে আমরা _অপারেশনালাইজ_ করব এই অনুশীলনগুলোকে ভালো শাসনের জন্য? আসুন কিছু বাস্তব সমাধান অন্বেষণ করি:
|
|
|
|
|
|
### 1. পেশাদার কোড
|
|
|
|
|
|
পেশাদার কোডগুলো সংগঠনগুলোকে তাদের নৈতিক নীতিমালা এবং মিশন বিবৃতিকে সমর্থন করতে সদস্যদের "উৎসাহিত" করার একটি বিকল্প প্রদান করে। কোডগুলো পেশাদার আচরণের জন্য _নৈতিক নির্দেশিকা_ প্রদান করে, যা কর্মচারী বা সদস্যদের সিদ্ধান্ত নিতে সাহায্য করে যা তাদের সংগঠনের নীতিমালার সাথে সামঞ্জস্যপূর্ণ। এগুলো শুধুমাত্র সদস্যদের স্বেচ্ছাসেবী সম্মতির উপর নির্ভর করে কার্যকর; তবে, অনেক সংগঠন সদস্যদের সম্মতি উৎসাহিত করতে অতিরিক্ত পুরস্কার এবং শাস্তি প্রদান করে।
|
|
|
|
|
|
উদাহরণ:
|
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) নৈতিকতার কোড
|
|
|
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) আচরণবিধি (২০১৩ সালে তৈরি)
|
|
|
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (১৯৯৩ সাল থেকে)
|
|
|
|
|
|
> 🚨 আপনি কি কোনো পেশাদার ইঞ্জিনিয়ারিং বা ডেটা সায়েন্স সংগঠনের সদস্য? তাদের সাইটটি অন্বেষণ করুন এবং দেখুন তারা কি একটি পেশাদার নৈতিকতার কোড সংজ্ঞায়িত করেছে। এটি তাদের নৈতিক নীতিমালা সম্পর্কে কী বলে? তারা কীভাবে সদস্যদের কোড অনুসরণ করতে "উৎসাহিত" করছে?
|
|
|
|
|
|
### 2. নৈতিকতার চেকলিস্ট
|
|
|
|
|
|
যখন পেশাদার কোডগুলো অনুশীলনকারীদের থেকে প্রয়োজনীয় _নৈতিক আচরণ_ সংজ্ঞায়িত করে, তখন সেগুলো [জানা সীমাবদ্ধতা](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) রয়েছে প্রয়োগে, বিশেষত বৃহৎ প্রকল্পগুলোতে। পরিবর্তে, অনেক ডেটা সায়েন্স বিশেষজ্ঞ [চেকলিস্টের](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) পক্ষে যুক্তি দেন, যা **নীতিমালাকে অনুশীলনে** আরও নির্ধারক এবং কার্যকর উপায়ে সংযুক্ত করতে পারে।
|
|
|
|
|
|
চেকলিস্টগুলো প্রশ্নগুলোকে "হ্যাঁ/না" কাজগুলোতে রূপান্তর করে যা অপারেশনালাইজ করা যায়, এবং সেগুলোকে স্ট্যান্ডার্ড প্রোডাক্ট রিলিজ ওয়ার্কফ্লো হিসেবে ট্র্যাক করা যায়।
|
|
|
|
|
|
উদাহরণ:
|
|
|
* [Deon](https://deon.drivendata.org/) - শিল্পের সুপারিশ থেকে তৈরি একটি সাধারণ উদ্দেশ্য ডেটা নৈতিকতার চেকলিস্ট।
|
|
|
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - আইনি এবং সামাজিক এক্সপোজার দৃষ্টিকোণ থেকে তথ্য পরিচালনার অনুশীলনের জন্য সাধারণ নির্দেশিকা প্রদান করে।
|
|
|
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - AI উন্নয়ন চক্রে ন্যায্যতা চেকগুলোর গ্রহণ এবং সংহতকরণ সমর্থন করার জন্য তৈরি।
|
|
|
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - নকশা, বাস্তবায়ন এবং সংগঠনের প্রেক্ষাপটে নৈতিক সমস্যার প্রাথমিক অনুসন্ধানের জন্য কাঠামোবদ্ধ।
|
|
|
|
|
|
### 3. নৈতিকতার নিয়মকানুন
|
|
|
|
|
|
নৈতিকতা হলো ভাগ করা মূল্যবোধ সংজ্ঞায়িত করা এবং _স্বেচ্ছায়_ সঠিক কাজ করা। **অনুগততা** হলো _আইন অনুসরণ করা_ যেখানে এবং যদি সংজ্ঞায়িত করা হয়। **শাসন** ব্যাপকভাবে সংগঠনগুলো কীভাবে নৈতিক নীতিমালা প্রয়োগ এবং প্রতিষ্ঠিত আইন মেনে চলার জন্য পরিচালনা করে তা কভার করে।
|
|
|
|
|
|
আজ, শাসন সংগঠনগুলোর মধ্যে দুটি রূপ নেয়। প্রথমত, এটি **নৈতিক AI** নীতিমালা সংজ্ঞায়িত করা এবং সংগঠনের সমস্ত AI-সম্পর্কিত প্রকল্পে গ্রহণের জন্য অনুশীলন প্রতিষ্ঠা করা। দ্বিতীয়ত, এটি যে অঞ্চলে এটি পরিচালনা করে তার জন্য সমস্ত সরকার-নির্ধারিত **ডেটা সুরক্ষা নিয়মকানুন** মেনে চলার বিষয়।
|
|
|
|
|
|
ডেটা সুরক্ষা এবং গোপনীয়তার নিয়মকানুনের উদাহরণ:
|
|
|
|
|
|
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - _ফেডারেল সরকার_ দ্বারা ব্যক্তিগত তথ্য সংগ্রহ, ব্যবহার এবং প্রকাশ নিয়ন্ত্রণ করে।
|
|
|
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ব্যক্তিগত স্বাস্থ্য ডেটা সুরক্ষা করে।
|
|
|
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ১৩ বছরের কম বয়সী শিশুদের ডেটা গোপনীয়তা সুরক্ষা করে।
|
|
|
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ব্যবহারকারীর অধিকার, ডেটা সুরক্ষা এবং গোপনীয়তা প্রদান করে।
|
|
|
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ভোক্তাদের তাদের (ব্যক্তিগত) ডেটার উপর আরও _অধিকার_ প্রদান করে।
|
|
|
* `2021`, চীনের [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) সম্প্রতি পাস হয়েছে, যা বিশ্বের অন্যতম শক্তিশালী অনলাইন ডেটা গোপনীয়তা নিয়মকানুন তৈরি করেছে।
|
|
|
|
|
|
> 🚨 ইউরোপীয় ইউনিয়ন দ্বারা সংজ্ঞায়িত GDPR (General Data Protection Regulation) আজকের অন্যতম প্রভাবশালী ডেটা গোপনীয়তা নিয়মকানুন। আপনি কি জানেন এটি নাগরিকদের ডিজিটাল গোপনীয়তা এবং ব্যক্তিগত ডেটা সুরক্ষার জন্য [৮টি ব্যবহারকারীর অধিকার](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) সংজ্ঞায়িত করে? জানুন এগুলো কী এবং কেন এগুলো গুরুত্বপূর্ণ।
|
|
|
|
|
|
### 4. নৈতিকতার সংস্কৃতি
|
|
|
|
|
|
লক্ষ্য করুন যে _অনুগততা_ (আইনের "অক্ষর" পূরণ করার জন্য যথেষ্ট করা) এবং [পদ্ধতিগত সমস্যাগুলো](https://www.coursera.org/learn/data-science-ethics/home/week/4) (যেমন, অস্থিরতা, তথ্য অসমতা এবং বিতরণগত অন্যায্যতা) সমাধান করার মধ্যে একটি অদৃশ্য ফাঁক রয়ে গেছে যা AI-এর অস্ত্রায়নকে ত্বরান্বিত করতে পারে।
|
|
|
|
|
|
পরবর্তীটি [নৈতিকতার সংস্কৃতি সংজ্ঞায়িত করার জন্য সহযোগিতামূলক পদ্ধতির](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) আহ্বান করে যা শিল্পের মধ্যে _সংগঠনগুলো_ জুড়ে আবেগগত সংযোগ এবং ধারাবাহিক ভাগ করা মূল্যবোধ তৈরি করে। এটি সংগঠনগুলোতে আরও [আনুষ্ঠানিক ডেটা নৈতিকতার সংস্কৃতি](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) তৈরি করার আহ্বান জানায় - যা _যেকোনো ব্যক্তিকে_ [অ্যান্ডন কর্ড টানতে](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (প্রক্রিয়ার প্রাথমিক পর্যায়ে নৈতিকতার উদ্বেগ উত্থাপন করতে) এবং _নৈতিক মূল্যায়ন_ (যেমন, নিয়োগে) AI প্রকল্পে দল গঠনের একটি মূল মানদণ্ড তৈরি করে।
|
|
|
|
|
|
---
|
|
|
## [পোস্ট-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
|
|
|
## পর্যালোচনা ও স্ব-অধ্যয়ন
|
|
|
|
|
|
কোর্স এবং বইগুলো নৈতিকতার মূল ধারণা এবং চ্যালেঞ্জগুলো বুঝতে সাহায্য করে, যখন কেস স্টাডি এবং টুলগুলো বাস্তব জীবনের প্রেক্ষাপটে প্রয়োগকৃত নৈতিকতার অনুশীলনে সাহায্য করে। শুরু করার জন্য এখানে কিছু রিসোর্স দেওয়া হলো।
|
|
|
|
|
|
* [Machine Learning For Beginners](https://github.com/microsoft/ML-For
|
|
|
* [Responsible AI এর নীতিমালা](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn থেকে বিনামূল্যে শেখার পথ।
|
|
|
* [নৈতিকতা এবং ডেটা সায়েন্স](https://resources.oreilly.com/examples/0636920203964) - O'Reilly ইবুক (M. Loukides, H. Mason প্রমুখ)
|
|
|
* [ডেটা সায়েন্স নৈতিকতা](https://www.coursera.org/learn/data-science-ethics#syllabus) - মিশিগান বিশ্ববিদ্যালয়ের অনলাইন কোর্স।
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - টেক্সাস বিশ্ববিদ্যালয়ের কেস স্টাডি।
|
|
|
|
|
|
# অ্যাসাইনমেন্ট
|
|
|
|
|
|
[ডেটা নৈতিকতার একটি কেস স্টাডি লিখুন](assignment.md)
|
|
|
|
|
|
---
|
|
|
|
|
|
**অস্বীকৃতি**:
|
|
|
এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদ প্রদানের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটিকে প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যা হলে আমরা দায়বদ্ধ থাকব না। |