|
|
<!--
|
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
|
{
|
|
|
"original_hash": "8796f41f566a0a8ebb72863a83d558ed",
|
|
|
"translation_date": "2025-08-27T08:54:10+00:00",
|
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
|
"language_code": "bn"
|
|
|
}
|
|
|
-->
|
|
|
# ডেটা নৈতিকতার পরিচিতি
|
|
|
|
|
|
| দ্বারা ](../../sketchnotes/02-Ethics.png)|
|
|
|
|:---:|
|
|
|
| ডেটা সায়েন্স নৈতিকতা - _[@nitya](https://twitter.com/nitya) দ্বারা স্কেচনোট_ |
|
|
|
|
|
|
---
|
|
|
|
|
|
আমরা সবাই ডেটা নাগরিক, যারা একটি ডেটা-নির্ভর বিশ্বে বাস করছি।
|
|
|
|
|
|
বাজারের প্রবণতা আমাদের বলে যে ২০২২ সালের মধ্যে, প্রতি তিনটি বড় প্রতিষ্ঠানের মধ্যে একটি তাদের ডেটা অনলাইনে [মার্কেটপ্লেস এবং এক্সচেঞ্জ](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) এর মাধ্যমে ক্রয় এবং বিক্রয় করবে। **অ্যাপ ডেভেলপার** হিসেবে, আমাদের জন্য ডেটা-নির্ভর অন্তর্দৃষ্টি এবং অ্যালগরিদম-নির্ভর অটোমেশনকে দৈনন্দিন ব্যবহারকারীর অভিজ্ঞতায় সংযুক্ত করা আরও সহজ এবং সাশ্রয়ী হবে। তবে, যখন AI সর্বব্যাপী হয়ে উঠছে, তখন আমাদের এই অ্যালগরিদমগুলির [অস্ত্রায়ন](https://www.youtube.com/watch?v=TQHs8SA1qpk) দ্বারা সম্ভাব্য ক্ষতির বিষয়টি বুঝতে হবে।
|
|
|
|
|
|
প্রবণতা আরও নির্দেশ করে যে আমরা ২০২৫ সালের মধ্যে [১৮০ জেটাবাইট](https://www.statista.com/statistics/871513/worldwide-data-created/) ডেটা তৈরি এবং ব্যবহার করব। **ডেটা বিজ্ঞানী** হিসেবে, এটি আমাদের ব্যক্তিগত ডেটার অভূতপূর্ব স্তরে প্রবেশাধিকার দেয়। এর অর্থ হলো আমরা ব্যবহারকারীদের আচরণগত প্রোফাইল তৈরি করতে পারি এবং সিদ্ধান্ত গ্রহণে প্রভাব ফেলতে পারি এমনভাবে যা [মুক্ত পছন্দের বিভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) তৈরি করে, তবে সম্ভাব্যভাবে ব্যবহারকারীদের আমাদের পছন্দের ফলাফলের দিকে ঠেলে দেয়। এটি ডেটা গোপনীয়তা এবং ব্যবহারকারীর সুরক্ষার বিষয়ে আরও বিস্তৃত প্রশ্নও উত্থাপন করে।
|
|
|
|
|
|
ডেটা নৈতিকতা এখন ডেটা বিজ্ঞান এবং প্রকৌশলের জন্য _প্রয়োজনীয় গার্ডরেল_, যা আমাদের ডেটা-নির্ভর ক্রিয়াকলাপ থেকে সম্ভাব্য ক্ষতি এবং অনিচ্ছাকৃত পরিণতি কমাতে সাহায্য করে। [গার্টনার হাইপ সাইকেল ফর AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) ডিজিটাল নৈতিকতা, দায়িত্বশীল AI, এবং AI গভর্নেন্সের প্রাসঙ্গিক প্রবণতাগুলিকে চিহ্নিত করে, যা AI-এর _গণতন্ত্রায়ন_ এবং _শিল্পায়ন_ এর বৃহত্তর মেগাট্রেন্ডগুলির মূল চালক।
|
|
|
|
|
|

|
|
|
|
|
|
এই পাঠে, আমরা ডেটা নৈতিকতার চমৎকার ক্ষেত্রটি অন্বেষণ করব - মূল ধারণা এবং চ্যালেঞ্জ থেকে শুরু করে কেস স্টাডি এবং গভর্নেন্সের মতো প্রয়োগকৃত AI ধারণা - যা ডেটা এবং AI নিয়ে কাজ করা দল এবং প্রতিষ্ঠানে একটি নৈতিকতার সংস্কৃতি প্রতিষ্ঠায় সাহায্য করে।
|
|
|
|
|
|
## [পূর্ব-লেকচার কুইজ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
|
|
|
|
|
|
## মৌলিক সংজ্ঞা
|
|
|
|
|
|
চলুন মৌলিক পরিভাষা বোঝা শুরু করি।
|
|
|
|
|
|
"নৈতিকতা" শব্দটি [গ্রিক শব্দ "ethikos"](https://en.wikipedia.org/wiki/Ethics) (এবং এর মূল "ethos") থেকে এসেছে, যার অর্থ _চরিত্র বা নৈতিক প্রকৃতি_।
|
|
|
|
|
|
**নৈতিকতা** হলো সমাজে আমাদের আচরণ পরিচালনা করার জন্য ভাগ করা মূল্যবোধ এবং নৈতিক নীতিগুলির বিষয়। নৈতিকতা আইন নয়, বরং "সঠিক বনাম ভুল" সম্পর্কে ব্যাপকভাবে গৃহীত মানদণ্ডের উপর ভিত্তি করে। তবে, নৈতিক বিবেচনা কর্পোরেট গভর্নেন্স উদ্যোগ এবং সরকারী নিয়মকানুনকে প্রভাবিত করতে পারে, যা সম্মতির জন্য আরও প্রণোদনা তৈরি করে।
|
|
|
|
|
|
**ডেটা নৈতিকতা** হলো একটি [নতুন শাখা](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) যা "_ডেটা, অ্যালগরিদম এবং সংশ্লিষ্ট অনুশীলন_" সম্পর্কিত নৈতিক সমস্যাগুলি অধ্যয়ন এবং মূল্যায়ন করে। এখানে, **"ডেটা"** জেনারেশন, রেকর্ডিং, কিউরেশন, প্রসেসিং, প্রচার, শেয়ারিং এবং ব্যবহারের সাথে সম্পর্কিত ক্রিয়াকলাপগুলির উপর ফোকাস করে, **"অ্যালগরিদম"** AI, এজেন্ট, মেশিন লার্নিং এবং রোবটের উপর ফোকাস করে, এবং **"অনুশীলন"** দায়িত্বশীল উদ্ভাবন, প্রোগ্রামিং, হ্যাকিং এবং নৈতিকতার কোডের মতো বিষয়গুলির উপর ফোকাস করে।
|
|
|
|
|
|
**প্রয়োগকৃত নৈতিকতা** হলো [নৈতিক বিবেচনার বাস্তব প্রয়োগ](https://en.wikipedia.org/wiki/Applied_ethics)। এটি হলো _বাস্তব-জগতের ক্রিয়াকলাপ, পণ্য এবং প্রক্রিয়ার_ প্রসঙ্গে নৈতিক সমস্যাগুলি সক্রিয়ভাবে তদন্ত করার প্রক্রিয়া এবং আমাদের সংজ্ঞায়িত নৈতিক মূল্যবোধের সাথে সামঞ্জস্য বজায় রাখতে সংশোধনমূলক ব্যবস্থা গ্রহণ।
|
|
|
|
|
|
**নৈতিকতার সংস্কৃতি** হলো [_প্রয়োগকৃত নৈতিকতাকে_ কার্যকর করা](https://hbr.org/2019/05/how-to-design-an-ethical-organization) যাতে আমাদের নৈতিক নীতিগুলি এবং অনুশীলনগুলি পুরো প্রতিষ্ঠানের মধ্যে ধারাবাহিক এবং স্কেলযোগ্যভাবে গ্রহণ করা হয়। সফল নৈতিকতার সংস্কৃতি প্রতিষ্ঠানের-ব্যাপী নৈতিক নীতিগুলি সংজ্ঞায়িত করে, সম্মতির জন্য অর্থপূর্ণ প্রণোদনা প্রদান করে এবং প্রতিটি স্তরে পছন্দসই আচরণকে উৎসাহিত এবং প্রসারিত করে নৈতিকতার মানদণ্ডকে শক্তিশালী করে।
|
|
|
|
|
|
## নৈতিকতার ধারণা
|
|
|
|
|
|
এই বিভাগে, আমরা **ভাগ করা মূল্যবোধ** (নীতিগুলি) এবং **নৈতিক চ্যালেঞ্জ** (সমস্যাগুলি) নিয়ে আলোচনা করব - এবং **কেস স্টাডি** অন্বেষণ করব যা আপনাকে বাস্তব-জগতের প্রসঙ্গে এই ধারণাগুলি বুঝতে সাহায্য করবে।
|
|
|
|
|
|
### ১. নৈতিকতার নীতিগুলি
|
|
|
|
|
|
প্রত্যেক ডেটা নৈতিকতার কৌশল শুরু হয় _নৈতিক নীতিগুলি_ সংজ্ঞায়িত করে - "ভাগ করা মূল্যবোধ" যা গ্রহণযোগ্য আচরণ বর্ণনা করে এবং আমাদের ডেটা এবং AI প্রকল্পে সম্মতিমূলক ক্রিয়াকলাপ পরিচালনা করে। আপনি এগুলি ব্যক্তিগত বা দলীয় স্তরে সংজ্ঞায়িত করতে পারেন। তবে, বেশিরভাগ বড় প্রতিষ্ঠান এগুলি একটি _নৈতিক AI_ মিশন বিবৃতি বা কাঠামোতে সংজ্ঞায়িত করে যা কর্পোরেট স্তরে সংজ্ঞায়িত এবং সমস্ত দলের মধ্যে ধারাবাহিকভাবে প্রয়োগ করা হয়।
|
|
|
|
|
|
**উদাহরণ:** Microsoft's [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai) মিশন বিবৃতি বলে: _"আমরা AI-এর অগ্রগতির জন্য প্রতিশ্রুতিবদ্ধ, যা নৈতিক নীতিগুলির দ্বারা পরিচালিত হয় যা মানুষকে প্রথমে রাখে"_ - নিচের কাঠামোতে ৬টি নৈতিক নীতিকে চিহ্নিত করে:
|
|
|
|
|
|

|
|
|
|
|
|
চলুন এই নীতিগুলি সংক্ষেপে অন্বেষণ করি। _স্বচ্ছতা_ এবং _দায়িত্বশীলতা_ হলো মৌলিক মূল্যবোধ যা অন্যান্য নীতিগুলির উপর ভিত্তি করে তৈরি - তাই এখানে শুরু করা যাক:
|
|
|
|
|
|
* [**দায়িত্বশীলতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) অনুশীলনকারীদের তাদের ডেটা এবং AI ক্রিয়াকলাপের জন্য এবং এই নৈতিক নীতিগুলির সাথে সম্মতির জন্য _দায়িত্বশীল_ করে তোলে।
|
|
|
* [**স্বচ্ছতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) নিশ্চিত করে যে ডেটা এবং AI ক্রিয়াকলাপগুলি ব্যবহারকারীদের কাছে _বোধ্য_ (ব্যাখ্যাযোগ্য) হয়, সিদ্ধান্তের পেছনের কী এবং কেন ব্যাখ্যা করে।
|
|
|
* [**ন্যায্যতা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - নিশ্চিত করে যে AI _সব মানুষকে_ ন্যায্যভাবে আচরণ করে, ডেটা এবং সিস্টেমে থাকা যেকোনো পদ্ধতিগত বা অন্তর্নিহিত সামাজিক-প্রযুক্তিগত পক্ষপাতিত্ব মোকাবিলা করে।
|
|
|
* [**বিশ্বাসযোগ্যতা এবং নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - নিশ্চিত করে যে AI _ধারাবাহিকভাবে_ সংজ্ঞায়িত মূল্যবোধের সাথে আচরণ করে, সম্ভাব্য ক্ষতি বা অনিচ্ছাকৃত পরিণতি কমিয়ে দেয়।
|
|
|
* [**গোপনীয়তা এবং নিরাপত্তা**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - ডেটার উত্স বোঝা এবং ব্যবহারকারীদের _ডেটা গোপনীয়তা এবং সংশ্লিষ্ট সুরক্ষা_ প্রদান সম্পর্কে।
|
|
|
* [**অন্তর্ভুক্তি**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - উদ্দেশ্য নিয়ে AI সমাধান ডিজাইন করার বিষয়ে, এগুলিকে _বিস্তৃত মানব প্রয়োজন এবং সক্ষমতা_ পূরণের জন্য মানিয়ে নেওয়া।
|
|
|
|
|
|
> 🚨 আপনার ডেটা নৈতিকতার মিশন বিবৃতি কী হতে পারে তা নিয়ে ভাবুন। অন্যান্য প্রতিষ্ঠানের নৈতিক AI কাঠামো অন্বেষণ করুন - এখানে [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles), এবং [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) থেকে উদাহরণ রয়েছে। তাদের মধ্যে কী সাধারণ ভাগ করা মূল্যবোধ রয়েছে? এই নীতিগুলি তারা যে AI পণ্য বা শিল্পে কাজ করে তার সাথে কীভাবে সম্পর্কিত?
|
|
|
|
|
|
### ২. নৈতিক চ্যালেঞ্জ
|
|
|
|
|
|
যখন আমরা নৈতিক নীতিগুলি সংজ্ঞায়িত করি, তখন পরবর্তী ধাপ হলো আমাদের ডেটা এবং AI ক্রিয়াকলাপগুলি মূল্যায়ন করা যাতে তারা সেই ভাগ করা মূল্যবোধের সাথে সামঞ্জস্যপূর্ণ কিনা তা দেখা যায়। আপনার ক্রিয়াকলাপগুলি দুটি বিভাগে ভাবুন: _ডেটা সংগ্রহ_ এবং _অ্যালগরিদম ডিজাইন_।
|
|
|
|
|
|
ডেটা সংগ্রহের ক্ষেত্রে, ক্রিয়াকলাপগুলি সম্ভবত **ব্যক্তিগত ডেটা** বা ব্যক্তিগতভাবে শনাক্তযোগ্য তথ্য (PII) অন্তর্ভুক্ত করবে যা জীবিত ব্যক্তিদের শনাক্ত করতে পারে। এটি [বিভিন্ন ধরনের অ-ব্যক্তিগত ডেটা](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) অন্তর্ভুক্ত করে যা _সমষ্টিগতভাবে_ একজন ব্যক্তিকে শনাক্ত করে। নৈতিক চ্যালেঞ্জগুলি _ডেটা গোপনীয়তা_, _ডেটা মালিকানা_, এবং _অবগত সম্মতি_ এবং ব্যবহারকারীদের _বৌদ্ধিক সম্পত্তি অধিকার_ এর মতো সম্পর্কিত বিষয়গুলির সাথে সম্পর্কিত হতে পারে।
|
|
|
|
|
|
অ্যালগরিদম ডিজাইনের ক্ষেত্রে, ক্রিয়াকলাপগুলি **ডেটাসেট** সংগ্রহ এবং কিউরেট করা এবং তারপরে **ডেটা মডেল** প্রশিক্ষণ এবং বাস্তব-জগতের প্রসঙ্গে ফলাফল পূর্বাভাস বা সিদ্ধান্ত অটোমেট করার জন্য ব্যবহার করা অন্তর্ভুক্ত করবে। নৈতিক চ্যালেঞ্জগুলি _ডেটাসেট পক্ষপাতিত্ব_, _ডেটা গুণমান_ সমস্যা, _অন্যায্যতা_, এবং অ্যালগরিদমে _ভুল উপস্থাপনা_ থেকে উদ্ভূত হতে পারে - যার মধ্যে কিছু সমস্যা পদ্ধতিগত প্রকৃতির।
|
|
|
|
|
|
উভয় ক্ষেত্রেই, নৈতিক চ্যালেঞ্জগুলি এমন ক্ষেত্রগুলিকে হাইলাইট করে যেখানে আমাদের ক্রিয়াকলাপগুলি আমাদের ভাগ করা মূল্যবোধের সাথে সংঘর্ষে পড়তে পারে। এই উদ্বেগগুলি সনাক্ত, প্রশমিত, কমানো বা দূর করতে - আমাদের আমাদের ক্রিয়াকলাপ সম্পর্কিত নৈতিক "হ্যাঁ/না" প্রশ্ন জিজ্ঞাসা করতে হবে এবং প্রয়োজন অনুযায়ী সংশোধনমূলক ব্যবস্থা নিতে হবে। চলুন কিছু নৈতিক চ্যালেঞ্জ এবং তারা যে নৈতিক প্রশ্ন উত্থাপন করে তা দেখি:
|
|
|
|
|
|
#### ২.১ ডেটা মালিকানা
|
|
|
|
|
|
ডেটা সংগ্রহ প্রায়ই ব্যক্তিগত ডেটা অন্তর্ভুক্ত করে যা ডেটা বিষয়গুলিকে শনাক্ত করতে পারে। [ডেটা মালিকানা](https://permission.io/blog/data-ownership) হলো ডেটা তৈরি, প্রক্রিয়াকরণ এবং প্রচারের সাথে সম্পর্কিত _নিয়ন্ত্রণ_ এবং [_ব্যবহারকারীর অধিকার_](https://permission.io/blog/data-ownership)।
|
|
|
|
|
|
আমাদের জিজ্ঞাসা করা নৈতিক প্রশ্নগুলো হলো:
|
|
|
* ডেটার মালিক কে? (ব্যবহারকারী বা প্রতিষ্ঠান)
|
|
|
* ডেটা বিষয়গুলির কী অধিকার রয়েছে? (যেমন: অ্যাক্সেস, মুছে ফেলা, পোর্টেবিলিটি)
|
|
|
* প্রতিষ্ঠানের কী অধিকার রয়েছে? (যেমন: ক্ষতিকারক ব্যবহারকারীর পর্যালোচনা সংশোধন করা)
|
|
|
|
|
|
#### ২.২ অবগত সম্মতি
|
|
|
|
|
|
[অবগত সম্মতি](https://legaldictionary.net/informed-consent/) সংজ্ঞায়িত করে ব্যবহারকারীদের একটি ক্রিয়াকলাপ (যেমন ডেটা সংগ্রহ) সম্মত হওয়ার কাজ, যেখানে তারা প্রাসঙ্গিক তথ্যের _সম্পূর্ণ বোঝাপড়া_ রাখে, যার মধ্যে উদ্দেশ্য, সম্ভাব্য ঝুঁকি এবং বিকল্প রয়েছে।
|
|
|
|
|
|
এখানে অনুসন্ধানের প্রশ্নগুলো হলো:
|
|
|
* ব্যবহারকারী (ডেটা বিষয়) ডেটা সংগ্রহ এবং ব্যবহারের জন্য অনুমতি দিয়েছেন কি?
|
|
|
* ব্যবহারকারী বুঝেছেন কি কেন সেই ডেটা সংগ্রহ করা হয়েছে?
|
|
|
* ব্যবহারকারী তাদের অংশগ্রহণ থেকে সম্ভাব্য ঝুঁকিগুলি বুঝেছেন কি?
|
|
|
|
|
|
#### ২.৩ বৌদ্ধিক সম্পত্তি
|
|
|
|
|
|
[বৌদ্ধিক সম্পত্তি](https://en.wikipedia.org/wiki/Intellectual_property) হলো মানব উদ্যোগ থেকে উদ্ভূত অমূর্ত সৃষ্টি, যা ব্যক্তিদের বা ব্যবসার জন্য _অর্থনৈতিক মূল্য_ থাকতে পারে।
|
|
|
|
|
|
এখানে অনুসন্ধানের প্রশ্নগুলো হলো:
|
|
|
* সংগৃহীত ডেটার ব্যবহারকারী বা ব্যবসার জন্য অর্থনৈতিক মূল্য ছিল কি?
|
|
|
* এখানে **ব্যবহারকারী** এর বৌদ্ধিক সম্পত্তি রয়েছে কি?
|
|
|
* এখানে **প্রতিষ্ঠান** এর বৌদ্ধিক সম্পত্তি রয়েছে কি?
|
|
|
* যদি এই অধিকারগুলি থাকে, আমরা কীভাবে সেগুলি রক্ষা করছি?
|
|
|
|
|
|
#### ২.৪ ডেটা গোপনীয়তা
|
|
|
|
|
|
[ডেটা গোপনীয়তা](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) বা তথ্য গোপনীয়তা ব্যবহারকারীর গোপনীয়তা সংরক্ষণ এবং ব্যক্তিগতভাবে শনাক্তযোগ্য তথ্যের সাথে ব্যবহারকারীর পরিচয় সুরক্ষার বিষয়ে।
|
|
|
|
|
|
এখানে অনুসন্ধানের প্রশ্নগুলো হলো:
|
|
|
* ব্যবহারকারীর (ব্যক্তিগত) ডেটা হ্যাক এবং লিকের বিরুদ্ধে সুরক্ষিত কি?
|
|
|
* ব্যবহারকারীর ডেটা শুধুমাত্র অনুমোদিত ব্যবহারকারী এবং প্রসঙ্গে অ্যাক্সেসযোগ্য কি?
|
|
|
* ডেটা শেয়ার বা প্রচার করার সময় ব্যবহারকারীর নাম গোপন রাখা হয়েছে কি?
|
|
|
* ব্যবহারকারীকে বেনামী ডেটাসেট থেকে শনাক্ত করা যেতে পারে কি?
|
|
|
|
|
|
#### ২.৫ ভুলে যাওয়ার অধিকার
|
|
|
|
|
|
[ভুলে যাওয়ার অধিকার](https://en.wikipedia.org/wiki/Right_to_be_forgotten) বা [মুছে ফেলার অধিকার](https://www.gdpreu.org/right-to-be-forgotten/) ব্যবহারকারীদের অতিরিক্ত ব্যক্তিগত ডেটা সুরক্ষা প্রদান করে। বিশেষত, এটি ব্যবহারকারীদের ইন্টারনেট অনুসন্ধান এবং অন্যান্য স্থানে ব্যক্তিগত ডেটা মুছে ফেলার বা অপসারণের অনুরোধ করার অধিকার দেয়, _নির্দিষ্ট পরিস্থিতিতে_ - তাদের অনলাইনে একটি নতুন সূচনা করার অনুমতি দেয় যাতে অতীতের ক্রিয়াকলাপগুলি তাদের বিরুদ্ধে না থাকে।
|
|
|
|
|
|
এখানে অনুসন্ধানের প্রশ্নগুলো হলো:
|
|
|
* সিস্টেমটি ডেটা বিষয়গুলিকে মুছে ফেলার অনুরোধ করার অনুমতি দেয় কি?
|
|
|
* ব্যবহারকারীর সম্মতি প্রত্যাহার স্বয়ংক্রিয় মুছে ফেলা ট্রিগার করা উচিত কি?
|
|
|
* ডেটা সম্মতি ছাড়াই বা অবৈধ উপায়ে সংগ্রহ করা হয়েছিল কি?
|
|
|
* আমরা ডেটা গোপনীয়তার জন্য সরকারী নিয়মকানুনের সাথে সম্মত কি?
|
|
|
|
|
|
#### ২.৬ ডেটাসেট পক্ষপাতিত্ব
|
|
|
|
|
|
ডেটাসেট বা [সংগ্রহ পক্ষপাতিত্ব](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) হলো অ্যালগরিদম উন্নয়নের জন্য একটি _অপ্রতিনিধিত্বমূলক_ ডেটার
|
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) পরীক্ষা করে দেখে যে কোনো অ্যালগরিদম ডিজাইন কি নির্দিষ্ট ডেটা সাবগ্রুপের বিরুদ্ধে পক্ষপাতমূলক আচরণ করছে কিনা, যা _বণ্টন_ (যেখানে সেই গ্রুপের কাছে সম্পদ পৌঁছানো বা সরবরাহ করা হয় না) এবং _সেবার গুণগত মান_ (যেখানে AI কিছু সাবগ্রুপের জন্য অন্যদের তুলনায় কম সঠিক) ক্ষেত্রে [সম্ভাব্য ক্ষতি](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) সৃষ্টি করতে পারে।
|
|
|
|
|
|
এখানে যে প্রশ্নগুলো বিবেচনা করা যেতে পারে:
|
|
|
* আমরা কি বিভিন্ন সাবগ্রুপ এবং শর্তের জন্য মডেলের সঠিকতা মূল্যায়ন করেছি?
|
|
|
* আমরা কি সিস্টেমকে সম্ভাব্য ক্ষতির (যেমন, স্টেরিওটাইপিং) জন্য গভীরভাবে পর্যবেক্ষণ করেছি?
|
|
|
* আমরা কি চিহ্নিত ক্ষতি কমানোর জন্য ডেটা সংশোধন বা মডেল পুনরায় প্রশিক্ষণ করতে পারি?
|
|
|
|
|
|
আরও জানার জন্য [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) এর মতো রিসোর্সগুলো অন্বেষণ করুন।
|
|
|
|
|
|
#### 2.9 ভুল উপস্থাপন
|
|
|
|
|
|
[ডেটা ভুল উপস্থাপন](https://www.sciencedirect.com/topics/computer-science/misrepresentation) হলো এই প্রশ্ন করা যে আমরা কি সৎভাবে রিপোর্ট করা ডেটা থেকে প্রাপ্ত অন্তর্দৃষ্টি এমনভাবে উপস্থাপন করছি যা ইচ্ছাকৃতভাবে একটি নির্দিষ্ট বর্ণনার সমর্থনে বিভ্রান্তিকর হতে পারে।
|
|
|
|
|
|
এখানে যে প্রশ্নগুলো বিবেচনা করা যেতে পারে:
|
|
|
* আমরা কি অসম্পূর্ণ বা ভুল ডেটা রিপোর্ট করছি?
|
|
|
* আমরা কি ডেটা এমনভাবে ভিজ্যুয়ালাইজ করছি যা বিভ্রান্তিকর সিদ্ধান্তে পৌঁছাতে সাহায্য করে?
|
|
|
* আমরা কি নির্বাচিত পরিসংখ্যানগত কৌশল ব্যবহার করে ফলাফলকে প্রভাবিত করছি?
|
|
|
* এমন কোনো বিকল্প ব্যাখ্যা আছে কি যা ভিন্ন সিদ্ধান্ত দিতে পারে?
|
|
|
|
|
|
#### 2.10 স্বাধীন পছন্দ
|
|
|
[স্বাধীন পছন্দের ভ্রম](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) ঘটে যখন সিস্টেমের "পছন্দ স্থাপত্য" সিদ্ধান্ত গ্রহণের অ্যালগরিদম ব্যবহার করে মানুষকে একটি পছন্দসই ফলাফলের দিকে ঠেলে দেয়, যদিও তাদের কাছে বিকল্প এবং নিয়ন্ত্রণ থাকার ভান করা হয়। এই [ডার্ক প্যাটার্ন](https://www.darkpatterns.org/) ব্যবহারকারীদের সামাজিক এবং অর্থনৈতিক ক্ষতি করতে পারে। যেহেতু ব্যবহারকারীর সিদ্ধান্ত আচরণগত প্রোফাইলকে প্রভাবিত করে, এই পদক্ষেপগুলো ভবিষ্যতের পছন্দগুলোকে আরও বাড়াতে বা প্রসারিত করতে পারে।
|
|
|
|
|
|
এখানে যে প্রশ্নগুলো বিবেচনা করা যেতে পারে:
|
|
|
* ব্যবহারকারী কি সেই পছন্দ করার প্রভাবগুলো বুঝতে পেরেছে?
|
|
|
* ব্যবহারকারী কি (বিকল্প) পছন্দ এবং প্রতিটির সুবিধা ও অসুবিধা সম্পর্কে সচেতন ছিল?
|
|
|
* ব্যবহারকারী কি একটি স্বয়ংক্রিয় বা প্রভাবিত পছন্দ পরে পরিবর্তন করতে পারে?
|
|
|
|
|
|
### 3. কেস স্টাডি
|
|
|
|
|
|
এই নৈতিক চ্যালেঞ্জগুলোকে বাস্তব জীবনের প্রেক্ষাপটে রাখার জন্য, এমন কেস স্টাডি দেখা সহায়ক যা নৈতিক লঙ্ঘন উপেক্ষা করার ফলে ব্যক্তি এবং সমাজের ওপর সম্ভাব্য ক্ষতি এবং পরিণতি তুলে ধরে।
|
|
|
|
|
|
কিছু উদাহরণ এখানে দেওয়া হলো:
|
|
|
|
|
|
| নৈতিক চ্যালেঞ্জ | কেস স্টাডি |
|
|
|
|--- |--- |
|
|
|
| **সচেতন সম্মতি** | 1972 - [টাস্কিগি সিফিলিস স্টাডি](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - আফ্রিকান আমেরিকান পুরুষদের বিনামূল্যে চিকিৎসার প্রতিশ্রুতি দেওয়া হয়েছিল, কিন্তু গবেষকরা তাদের রোগ নির্ণয় বা চিকিৎসার প্রাপ্যতা সম্পর্কে জানাতে ব্যর্থ হন। অনেক অংশগ্রহণকারী মারা যান এবং তাদের সঙ্গী বা সন্তান ক্ষতিগ্রস্ত হন; এই গবেষণা ৪০ বছর ধরে চলে। |
|
|
|
| **ডেটা গোপনীয়তা** | 2007 - [নেটফ্লিক্স ডেটা প্রাইজ](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) গবেষকদের _৫০,০০০ গ্রাহকের ১০ মিলিয়ন অ্যানোনিমাইজড মুভি রেটিং_ প্রদান করে সুপারিশ অ্যালগরিদম উন্নত করতে। তবে, গবেষকরা অ্যানোনিমাইজড ডেটাকে _বাহ্যিক ডেটাসেটের_ (যেমন, IMDb মন্তব্য) সঙ্গে সংযুক্ত করে কিছু নেটফ্লিক্স গ্রাহকদের "ডি-অ্যানোনিমাইজ" করতে সক্ষম হন।|
|
|
|
| **সংগ্রহ পক্ষপাত** | 2013 - বোস্টন শহর [স্ট্রিট বাম্প](https://www.boston.gov/transportation/street-bump) অ্যাপ তৈরি করে যা নাগরিকদের পটহোল রিপোর্ট করতে দেয়, শহরকে ভালো রাস্তার ডেটা দিয়ে সমস্যা খুঁজে বের করতে এবং ঠিক করতে সাহায্য করে। তবে, [নিম্ন আয়ের গ্রুপের মানুষের গাড়ি এবং ফোনে কম প্রবেশাধিকার ছিল](https://hbr.org/2013/04/the-hidden-biases-in-big-data), যার ফলে তাদের রাস্তার সমস্যাগুলো এই অ্যাপে অদৃশ্য হয়ে যায়। ডেভেলপাররা ন্যায্যতার জন্য _সমান প্রবেশাধিকার এবং ডিজিটাল বিভাজন_ সমস্যাগুলো নিয়ে একাডেমিকদের সঙ্গে কাজ করেন। |
|
|
|
| **অ্যালগরিদমিক ন্যায্যতা** | 2018 - MIT [জেন্ডার শেডস স্টাডি](http://gendershades.org/overview.html) লিঙ্গ শ্রেণীবিন্যাস AI পণ্যের সঠিকতা মূল্যায়ন করে, নারীদের এবং রঙের মানুষের জন্য সঠিকতার ফাঁকগুলো প্রকাশ করে। একটি [2019 অ্যাপল কার্ড](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) পুরুষদের তুলনায় নারীদের কম ক্রেডিট অফার করে বলে মনে হয়। উভয়ই অ্যালগরিদমিক পক্ষপাতের সমস্যাগুলো তুলে ধরে যা সামাজিক-অর্থনৈতিক ক্ষতি সৃষ্টি করে।|
|
|
|
| **ডেটা ভুল উপস্থাপন** | 2020 - [জর্জিয়া ডিপার্টমেন্ট অফ পাবলিক হেলথ COVID-19 চার্ট প্রকাশ করে](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) যা নিশ্চিত কেসের প্রবণতা সম্পর্কে নাগরিকদের বিভ্রান্ত করতে পারে, যেখানে x-অক্ষের অchronological অর্ডারিং ছিল। এটি ভিজ্যুয়ালাইজেশন কৌশলের মাধ্যমে ভুল উপস্থাপনের উদাহরণ। |
|
|
|
| **স্বাধীন পছন্দের ভ্রম** | 2020 - লার্নিং অ্যাপ [ABCmouse $10M জরিমানা দিয়ে FTC অভিযোগ মীমাংসা করে](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) যেখানে অভিভাবকরা এমন সাবস্ক্রিপশন পেমেন্টে আটকা পড়েন যা তারা বাতিল করতে পারেননি। এটি পছন্দ স্থাপত্যে ডার্ক প্যাটার্নের উদাহরণ, যেখানে ব্যবহারকারীদের ক্ষতিকর পছন্দের দিকে ঠেলে দেওয়া হয়। |
|
|
|
| **ডেটা গোপনীয়তা ও ব্যবহারকারীর অধিকার** | 2021 - ফেসবুক [ডেটা ব্রিচ](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ৫৩০ মিলিয়ন ব্যবহারকারীর ডেটা প্রকাশ করে, যার ফলে FTC-কে $5B জরিমানা দিতে হয়। তবে, এটি ব্যবহারকারীদের ব্রিচ সম্পর্কে জানাতে অস্বীকার করে, যা ডেটা স্বচ্ছতা এবং প্রবেশাধিকারের ক্ষেত্রে ব্যবহারকারীর অধিকার লঙ্ঘন করে। |
|
|
|
|
|
|
আরও কেস স্টাডি অন্বেষণ করতে চান? এই রিসোর্সগুলো দেখুন:
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - বিভিন্ন শিল্পের নৈতিক দ্বিধা।
|
|
|
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - গুরুত্বপূর্ণ কেস স্টাডি।
|
|
|
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - ডিওন চেকলিস্টের উদাহরণ।
|
|
|
|
|
|
> 🚨 আপনি যে কেস স্টাডিগুলো দেখেছেন তা নিয়ে ভাবুন - আপনার জীবনে কি এমন কোনো নৈতিক চ্যালেঞ্জের অভিজ্ঞতা হয়েছে বা আপনি ক্ষতিগ্রস্ত হয়েছেন? আপনি কি এই বিভাগে আলোচনা করা নৈতিক চ্যালেঞ্জগুলোর মধ্যে অন্তত একটি চিত্রিত করে এমন অন্য কোনো কেস স্টাডি ভাবতে পারেন?
|
|
|
|
|
|
## প্রয়োগকৃত নৈতিকতা
|
|
|
|
|
|
আমরা নৈতিকতার ধারণা, চ্যালেঞ্জ এবং বাস্তব জীবনের প্রেক্ষাপটে কেস স্টাডি নিয়ে আলোচনা করেছি। কিন্তু কীভাবে আমরা আমাদের প্রকল্পগুলোতে নৈতিক নীতিমালা এবং অনুশীলন _প্রয়োগ_ করতে শুরু করব? এবং কীভাবে আমরা এই অনুশীলনগুলোকে _অপারেশনালাইজ_ করব যাতে ভালো শাসন নিশ্চিত করা যায়? আসুন কিছু বাস্তব সমাধান অন্বেষণ করি:
|
|
|
|
|
|
### 1. পেশাদার কোড
|
|
|
|
|
|
পেশাদার কোডগুলো সংগঠনগুলোর জন্য একটি বিকল্প প্রদান করে যাতে তারা তাদের নৈতিক নীতিমালা এবং মিশন বিবৃতিকে সমর্থন করার জন্য সদস্যদের "উৎসাহিত" করতে পারে। কোডগুলো পেশাদার আচরণের জন্য _নৈতিক নির্দেশিকা_ প্রদান করে, যা কর্মচারী বা সদস্যদের এমন সিদ্ধান্ত নিতে সাহায্য করে যা তাদের সংগঠনের নীতিমালার সঙ্গে সামঞ্জস্যপূর্ণ। এগুলো শুধুমাত্র সদস্যদের স্বেচ্ছাসেবী সম্মতির উপর নির্ভর করে কার্যকর; তবে, অনেক সংগঠন সদস্যদের সম্মতি উৎসাহিত করতে অতিরিক্ত পুরস্কার এবং শাস্তি প্রদান করে।
|
|
|
|
|
|
উদাহরণগুলো অন্তর্ভুক্ত:
|
|
|
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) নৈতিকতার কোড
|
|
|
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) আচরণবিধি (২০১৩ সালে তৈরি)
|
|
|
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (১৯৯৩ সাল থেকে)
|
|
|
|
|
|
> 🚨 আপনি কি কোনো পেশাদার ইঞ্জিনিয়ারিং বা ডেটা সায়েন্স সংগঠনের সদস্য? তাদের সাইটটি অন্বেষণ করুন এবং দেখুন তারা কি পেশাদার নৈতিকতার কোড সংজ্ঞায়িত করেছে। এটি তাদের নৈতিক নীতিমালা সম্পর্কে কী বলে? তারা সদস্যদের কোড অনুসরণ করতে কীভাবে "উৎসাহিত" করছে?
|
|
|
|
|
|
### 2. নৈতিকতার চেকলিস্ট
|
|
|
|
|
|
যেখানে পেশাদার কোডগুলো অনুশীলনকারীদের থেকে প্রয়োজনীয় _নৈতিক আচরণ_ সংজ্ঞায়িত করে, সেখানে [পরিচিত সীমাবদ্ধতা](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) রয়েছে, বিশেষত বৃহৎ প্রকল্পগুলোতে প্রয়োগে। এর পরিবর্তে, অনেক ডেটা সায়েন্স বিশেষজ্ঞ [চেকলিস্টের](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) পক্ষে যুক্তি দেন, যা নীতিমালাকে আরও নির্ধারক এবং কার্যকর উপায়ে অনুশীলনে সংযুক্ত করতে পারে।
|
|
|
|
|
|
চেকলিস্টগুলো প্রশ্নগুলোকে "হ্যাঁ/না" কাজগুলোতে রূপান্তর করে যা অপারেশনালাইজ করা যায়, এবং এগুলোকে স্ট্যান্ডার্ড প্রোডাক্ট রিলিজ ওয়ার্কফ্লো হিসেবে ট্র্যাক করা যায়।
|
|
|
|
|
|
উদাহরণগুলো অন্তর্ভুক্ত:
|
|
|
* [Deon](https://deon.drivendata.org/) - শিল্পের সুপারিশ থেকে তৈরি একটি সাধারণ উদ্দেশ্য ডেটা নৈতিকতার চেকলিস্ট, যা সহজ ইন্টিগ্রেশনের জন্য কমান্ড-লাইন টুল প্রদান করে।
|
|
|
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - আইনি এবং সামাজিক এক্সপোজার দৃষ্টিকোণ থেকে তথ্য পরিচালনার অনুশীলনের জন্য সাধারণ নির্দেশিকা প্রদান করে।
|
|
|
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - AI উন্নয়ন চক্রে ন্যায্যতা চেকগুলোর গ্রহণ এবং ইন্টিগ্রেশন সমর্থন করার জন্য AI অনুশীলনকারীদের দ্বারা তৈরি।
|
|
|
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - আরও খোলা কাঠামো, নকশা, বাস্তবায়ন এবং সাংগঠনিক প্রেক্ষাপটে নৈতিক সমস্যার প্রাথমিক অনুসন্ধানের জন্য গঠিত।
|
|
|
|
|
|
### 3. নৈতিকতার নিয়মকানুন
|
|
|
|
|
|
নৈতিকতা হলো ভাগ করা মূল্যবোধ সংজ্ঞায়িত করা এবং _স্বেচ্ছায়_ সঠিক কাজ করা। **অনুগততা** হলো _আইন অনুসরণ করা_ যেখানে এবং যদি সংজ্ঞায়িত করা হয়। **শাসন** ব্যাপকভাবে সংগঠনগুলো কীভাবে নৈতিক নীতিমালা প্রয়োগ এবং প্রতিষ্ঠিত আইন মেনে চলার জন্য পরিচালনা করে তা অন্তর্ভুক্ত করে।
|
|
|
|
|
|
আজ, শাসন সংগঠনগুলোর মধ্যে দুটি রূপ নেয়। প্রথমত, এটি **নৈতিক AI** নীতিমালা সংজ্ঞায়িত করা এবং সংগঠনের সমস্ত AI-সম্পর্কিত প্রকল্পে গ্রহণের অনুশীলন প্রতিষ্ঠা করা। দ্বিতীয়ত, এটি যে অঞ্চলে এটি পরিচালনা করে তার জন্য সমস্ত সরকার-নির্ধারিত **ডেটা সুরক্ষা নিয়মকানুন** মেনে চলা।
|
|
|
|
|
|
ডেটা সুরক্ষা এবং গোপনীয়তার নিয়মকানুনের উদাহরণ:
|
|
|
|
|
|
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - _ফেডারেল সরকার_ দ্বারা ব্যক্তিগত তথ্য সংগ্রহ, ব্যবহার এবং প্রকাশ নিয়ন্ত্রণ করে।
|
|
|
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - ব্যক্তিগত স্বাস্থ্য ডেটা সুরক্ষা করে।
|
|
|
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - ১৩ বছরের কম বয়সী শিশুদের ডেটা গোপনীয়তা সুরক্ষা করে।
|
|
|
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - ব্যবহারকারীর অধিকার, ডেটা সুরক্ষা এবং গোপনীয়তা প্রদান করে।
|
|
|
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - ভোক্তাদের তাদের (ব্যক্তিগত) ডেটার উপর আরও _অধিকার_ প্রদান করে।
|
|
|
* `2021`, চীনের [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) সম্প্রতি পাস হয়েছে, যা বিশ্বের অন্যতম শক্তিশালী অনলাইন ডেটা গোপনীয়তা নিয়মকানুন তৈরি করেছে।
|
|
|
|
|
|
> 🚨 ইউরোপীয় ইউনিয়ন দ্বারা সংজ্ঞায়িত GDPR (General Data Protection Regulation) আজকের অন্যতম প্রভাবশালী ডেটা গোপনীয়তা নিয়মকানুন। আপনি কি জানেন এটি [৮টি ব্যবহারকারীর অধিকার](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) সংজ্ঞায়িত করে যা নাগরিকদের ডিজিটাল গোপনীয়তা এবং ব্যক্তিগত ডেটা সুরক্ষা করে? এগুলো কী এবং কেন গুরুত্বপূর্ণ তা জানুন।
|
|
|
|
|
|
### 4. নৈতিকতার সংস্কৃতি
|
|
|
|
|
|
লক্ষ্য করুন যে _অনুগততা_ (আইনের "অক্ষর" পূরণ করার জন্য যথেষ্ট করা) এবং [পদ্ধতিগত সমস্যাগুলো](https://www.coursera.org/learn/data-science-ethics/home/week/4) (যেমন, অস্থিরতা, তথ্যের অসমতা এবং বিতরণগত পক্ষপাত) সমাধান করার মধ্যে একটি অদৃশ্য ফাঁক রয়ে গেছে, যা AI-এর অস্ত্রায়নকে ত্বরান্বিত করতে পারে।
|
|
|
|
|
|
পরবর্তীটি [নৈতিকতার সংস্কৃতি সংজ্ঞায়িত করার জন্য সহযোগিতামূলক পদ্ধতির](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) আহ্বান জানায় যা শিল্পের মধ্যে _সংগঠনগুলোর_ মধ্যে আবেগগত সংযোগ এবং ধারাবাহিক ভাগ করা মূল্যবোধ তৈরি করে। এটি সংগঠনগুলোতে আরও [আনুষ্ঠানিক ডেটা নৈতিকতার সংস্কৃতি](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) তৈরি করার আহ্বান জানায় - যা _যেকোনো ব্যক্তিকে_ [অ্যান্ডন কর্ড টানতে](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (প্রক্রিয়ার প্রাথমিক পর্যায়ে নৈতিক উদ্বেগ উত্থাপন করতে) এবং AI প্রকল্পে দল গঠনের জন্য _নৈতিক মূল্যায়ন_ (যেমন, নিয়োগে) একটি মূল মানদণ্ড তৈরি করে।
|
|
|
|
|
|
---
|
|
|
## [পোস্ট-লেকচার কুইজ](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
|
|
|
## পর্যালোচনা ও স্ব-অধ্যয়ন
|
|
|
|
|
|
কোর্স এবং বইগুলো নৈতিকতার মূল ধারণা এবং চ্যালেঞ্জগুলো বুঝতে সাহায্য করে, যখন কেস স্টাডি এবং টুল
|
|
|
* [Responsible AI এর নীতিমালা](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn থেকে বিনামূল্যে শেখার পথ।
|
|
|
* [নৈতিকতা এবং ডেটা বিজ্ঞান](https://resources.oreilly.com/examples/0636920203964) - O'Reilly ইবুক (M. Loukides, H. Mason প্রমুখ)
|
|
|
* [ডেটা বিজ্ঞান নৈতিকতা](https://www.coursera.org/learn/data-science-ethics#syllabus) - মিশিগান বিশ্ববিদ্যালয়ের অনলাইন কোর্স।
|
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - টেক্সাস বিশ্ববিদ্যালয়ের কেস স্টাডি।
|
|
|
|
|
|
# অ্যাসাইনমেন্ট
|
|
|
|
|
|
[ডেটা নৈতিকতার একটি কেস স্টাডি লিখুন](assignment.md)
|
|
|
|
|
|
---
|
|
|
|
|
|
**অস্বীকৃতি**:
|
|
|
এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। নথিটির মূল ভাষায় রচিত সংস্করণটিকেই প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ ব্যবহার করার পরামর্শ দেওয়া হয়। এই অনুবাদ ব্যবহারের ফলে সৃষ্ট কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। |