You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/hi/1-Introduction/02-ethics/README.md

267 lines
59 KiB

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "1341f6da63d434f5ba31b08ea951b02c",
"translation_date": "2025-09-05T15:05:35+00:00",
"source_file": "1-Introduction/02-ethics/README.md",
"language_code": "hi"
}
-->
# डेटा नैतिकता का परिचय
|![ स्केच नोट [(@sketchthedocs)](https://sketchthedocs.dev) द्वारा ](../../sketchnotes/02-Ethics.png)|
|:---:|
| डेटा साइंस नैतिकता - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
---
हम सभी एक डेटा-आधारित दुनिया में डेटा नागरिक हैं।
बाजार के रुझान बताते हैं कि 2022 तक, हर तीन में से एक बड़ी संस्था ऑनलाइन [मार्केटप्लेस और एक्सचेंज](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) के माध्यम से अपना डेटा खरीदेगी और बेचेगी। **ऐप डेवलपर्स** के रूप में, हमारे लिए डेटा-आधारित अंतर्दृष्टि और एल्गोरिदम-आधारित स्वचालन को दैनिक उपयोगकर्ता अनुभवों में शामिल करना आसान और सस्ता हो जाएगा। लेकिन जैसे-जैसे एआई व्यापक होता जाएगा, हमें यह भी समझना होगा कि बड़े पैमाने पर ऐसे एल्गोरिदम के [हथियारकरण](https://www.youtube.com/watch?v=TQHs8SA1qpk) से संभावित नुकसान हो सकते हैं।
रुझान यह भी संकेत देते हैं कि हम 2025 तक [180 ज़ेटाबाइट्स](https://www.statista.com/statistics/871513/worldwide-data-created/) से अधिक डेटा बनाएंगे और उपभोग करेंगे। **डेटा वैज्ञानिकों** के रूप में, यह हमें व्यक्तिगत डेटा तक अभूतपूर्व स्तर की पहुंच प्रदान करता है। इसका मतलब है कि हम उपयोगकर्ताओं के व्यवहारिक प्रोफाइल बना सकते हैं और निर्णय लेने को इस तरह प्रभावित कर सकते हैं कि यह [मुक्त विकल्प का भ्रम](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) पैदा करे, जबकि उपयोगकर्ताओं को उन परिणामों की ओर धकेल सकता है जो हमें पसंद हैं। यह डेटा गोपनीयता और उपयोगकर्ता सुरक्षा पर व्यापक सवाल भी उठाता है।
डेटा नैतिकता अब डेटा विज्ञान और इंजीनियरिंग के लिए _आवश्यक सुरक्षा उपाय_ हैं, जो हमारे डेटा-आधारित कार्यों से संभावित नुकसान और अनपेक्षित परिणामों को कम करने में मदद करते हैं। [गार्टनर हाइप साइकिल फॉर एआई](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) डिजिटल नैतिकता, जिम्मेदार एआई, और एआई गवर्नेंस में प्रासंगिक रुझानों की पहचान करता है, जो एआई के _लोकतंत्रीकरण_ और _औद्योगिकीकरण_ के बड़े मेगाट्रेंड्स के प्रमुख चालक हैं।
![गार्टनर का एआई के लिए हाइप साइकिल - 2020](https://images-cdn.newscred.com/Zz1mOWJhNzlkNDA2ZTMxMWViYjRiOGFiM2IyMjQ1YmMwZQ==)
इस पाठ में, हम डेटा नैतिकता के आकर्षक क्षेत्र का अन्वेषण करेंगे - मुख्य अवधारणाओं और चुनौतियों से लेकर केस स्टडी और लागू एआई अवधारणाओं जैसे गवर्नेंस तक - जो डेटा और एआई के साथ काम करने वाली टीमों और संगठनों में नैतिकता की संस्कृति स्थापित करने में मदद करते हैं।
## [प्री-लेक्चर क्विज़](https://ff-quizzes.netlify.app/en/ds/quiz/2) 🎯
## बुनियादी परिभाषाएँ
आइए बुनियादी शब्दावली को समझने से शुरू करें।
"नैतिकता" शब्द [ग्रीक शब्द "एथिकोस"](https://en.wikipedia.org/wiki/Ethics) (और इसकी जड़ "एथोस") से आया है, जिसका अर्थ है _चरित्र या नैतिक प्रकृति_
**नैतिकता** हमारे समाज में व्यवहार को नियंत्रित करने वाले साझा मूल्यों और नैतिक सिद्धांतों के बारे में है। नैतिकता कानूनों पर आधारित नहीं है, बल्कि "सही बनाम गलत" के व्यापक रूप से स्वीकार किए गए मानदंडों पर आधारित है। हालांकि, नैतिक विचार कॉर्पोरेट गवर्नेंस पहलों और सरकारी नियमों को प्रभावित कर सकते हैं, जो अनुपालन के लिए अधिक प्रोत्साहन पैदा करते हैं।
**डेटा नैतिकता** नैतिकता की एक [नई शाखा](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) है जो "_डेटा, एल्गोरिदम और संबंधित प्रथाओं_" से संबंधित नैतिक समस्याओं का अध्ययन और मूल्यांकन करती है। यहां, **"डेटा"** डेटा के निर्माण, रिकॉर्डिंग, क्यूरेशन, प्रसंस्करण, प्रसार, साझाकरण और उपयोग से संबंधित क्रियाओं पर केंद्रित है, **"एल्गोरिदम"** एआई, एजेंट, मशीन लर्निंग और रोबोट पर केंद्रित है, और **"प्रथाएं"** जिम्मेदार नवाचार, प्रोग्रामिंग, हैकिंग और नैतिकता कोड जैसे विषयों पर केंद्रित हैं।
**लागू नैतिकता** नैतिक विचारों का [व्यावहारिक अनुप्रयोग](https://en.wikipedia.org/wiki/Applied_ethics) है। यह _वास्तविक दुनिया की क्रियाओं, उत्पादों और प्रक्रियाओं_ के संदर्भ में नैतिक मुद्दों की सक्रिय रूप से जांच करने और सुधारात्मक उपाय करने की प्रक्रिया है ताकि यह सुनिश्चित किया जा सके कि ये हमारी परिभाषित नैतिक मूल्यों के साथ संरेखित रहें।
**नैतिकता संस्कृति** [_लागू नैतिकता_ को लागू करने](https://hbr.org/2019/05/how-to-design-an-ethical-organization) के बारे में है ताकि यह सुनिश्चित किया जा सके कि हमारे नैतिक सिद्धांत और प्रथाएं पूरे संगठन में लगातार और स्केलेबल तरीके से अपनाई जाएं। सफल नैतिकता संस्कृतियां संगठन-व्यापी नैतिक सिद्धांतों को परिभाषित करती हैं, अनुपालन के लिए सार्थक प्रोत्साहन प्रदान करती हैं, और हर स्तर पर वांछित व्यवहार को प्रोत्साहित और बढ़ावा देकर नैतिकता मानदंडों को सुदृढ़ करती हैं।
## नैतिकता की अवधारणाएँ
इस खंड में, हम **साझा मूल्य** (सिद्धांत) और **नैतिक चुनौतियों** (समस्याएं) जैसे डेटा नैतिकता के लिए अवधारणाओं पर चर्चा करेंगे - और **केस स्टडी** का अन्वेषण करेंगे जो आपको वास्तविक दुनिया के संदर्भों में इन अवधारणाओं को समझने में मदद करते हैं।
### 1. नैतिकता सिद्धांत
हर डेटा नैतिकता रणनीति _नैतिक सिद्धांतों_ को परिभाषित करने से शुरू होती है - "साझा मूल्य" जो स्वीकार्य व्यवहारों का वर्णन करते हैं और हमारे डेटा और एआई परियोजनाओं में अनुपालन क्रियाओं का मार्गदर्शन करते हैं। आप इन्हें व्यक्तिगत या टीम स्तर पर परिभाषित कर सकते हैं। हालांकि, अधिकांश बड़े संगठन इन्हें एक _नैतिक एआई_ मिशन स्टेटमेंट या फ्रेमवर्क में परिभाषित करते हैं, जो कॉर्पोरेट स्तरों पर परिभाषित होता है और सभी टीमों में लगातार लागू किया जाता है।
**उदाहरण:** माइक्रोसॉफ्ट का [जिम्मेदार एआई](https://www.microsoft.com/en-us/ai/responsible-ai) मिशन स्टेटमेंट कहता है: _"हम एआई के विकास के लिए प्रतिबद्ध हैं, जो नैतिक सिद्धांतों द्वारा संचालित है जो लोगों को प्राथमिकता देता है"_ - नीचे दिए गए फ्रेमवर्क में 6 नैतिक सिद्धांतों की पहचान करता है:
![माइक्रोसॉफ्ट में जिम्मेदार एआई](https://docs.microsoft.com/en-gb/azure/cognitive-services/personalizer/media/ethics-and-responsible-use/ai-values-future-computed.png)
आइए इन सिद्धांतों का संक्षेप में अन्वेषण करें। _पारदर्शिता_ और _जवाबदेही_ वे मूलभूत मूल्य हैं जिन पर अन्य सिद्धांत आधारित हैं - तो आइए वहीं से शुरू करें:
* [**जवाबदेही**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) डेटा और एआई संचालन के लिए चिकित्सकों को _जिम्मेदार_ बनाती है, और इन नैतिक सिद्धांतों के अनुपालन के लिए।
* [**पारदर्शिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) सुनिश्चित करती है कि डेटा और एआई क्रियाएं उपयोगकर्ताओं के लिए _समझने योग्य_ (व्याख्यात्मक) हों, निर्णयों के पीछे क्या और क्यों को समझाते हुए।
* [**निष्पक्षता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - सुनिश्चित करती है कि एआई सभी लोगों के साथ _निष्पक्षता_ से व्यवहार करे, डेटा और सिस्टम में किसी भी प्रणालीगत या निहित सामाजिक-तकनीकी पूर्वाग्रहों को संबोधित करते हुए।
* [**विश्वसनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - सुनिश्चित करती है कि एआई परिभाषित मूल्यों के साथ _संगत_ व्यवहार करे, संभावित नुकसान या अनपेक्षित परिणामों को कम करते हुए।
* [**गोपनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - डेटा की उत्पत्ति को समझने और उपयोगकर्ताओं को _डेटा गोपनीयता और संबंधित सुरक्षा_ प्रदान करने के बारे में है।
* [**समावेशिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - एआई समाधानों को उद्देश्यपूर्ण तरीके से डिजाइन करने के बारे में है, उन्हें _व्यापक मानव आवश्यकताओं_ और क्षमताओं को पूरा करने के लिए अनुकूलित करना।
> 🚨 सोचें कि आपका डेटा नैतिकता मिशन स्टेटमेंट क्या हो सकता है। अन्य संगठनों के नैतिक एआई फ्रेमवर्क का अन्वेषण करें - यहां [आईबीएम](https://www.ibm.com/cloud/learn/ai-ethics), [गूगल](https://ai.google/principles), और [फेसबुक](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) के उदाहरण हैं। उनके साझा मूल्यों में क्या समानता है? ये सिद्धांत उनके एआई उत्पाद या उद्योग से कैसे संबंधित हैं जिसमें वे काम करते हैं?
### 2. नैतिकता चुनौतियाँ
एक बार जब हम नैतिक सिद्धांतों को परिभाषित कर लेते हैं, तो अगला कदम हमारे डेटा और एआई क्रियाओं का मूल्यांकन करना है कि क्या वे उन साझा मूल्यों के साथ संरेखित हैं। अपने कार्यों को दो श्रेणियों में सोचें: _डेटा संग्रह_ और _एल्गोरिदम डिज़ाइन_
डेटा संग्रह के साथ, क्रियाएं संभवतः **व्यक्तिगत डेटा** या व्यक्तिगत रूप से पहचान योग्य जानकारी (PII) से संबंधित होंगी जो जीवित व्यक्तियों की पहचान करती है। इसमें [गैर-व्यक्तिगत डेटा की विविध वस्तुएं](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) शामिल हैं जो _सामूहिक रूप से_ किसी व्यक्ति की पहचान करती हैं। नैतिक चुनौतियां _डेटा गोपनीयता_, _डेटा स्वामित्व_, और संबंधित विषयों जैसे _सूचित सहमति_ और उपयोगकर्ताओं के लिए _बौद्धिक संपदा अधिकारों_ से संबंधित हो सकती हैं।
एल्गोरिदम डिज़ाइन के साथ, क्रियाएं **डेटासेट** एकत्रित और क्यूरेट करने, फिर उन्हें **डेटा मॉडल** को प्रशिक्षित और तैनात करने के लिए उपयोग करने से संबंधित होंगी जो वास्तविक दुनिया के संदर्भों में परिणामों की भविष्यवाणी करते हैं या निर्णयों को स्वचालित करते हैं। नैतिक चुनौतियां _डेटासेट पूर्वाग्रह_, _डेटा गुणवत्ता_ मुद्दों, _असमानता_, और एल्गोरिदम में _गलत प्रस्तुति_ से उत्पन्न हो सकती हैं - जिनमें से कुछ मुद्दे प्रणालीगत प्रकृति के हो सकते हैं।
दोनों मामलों में, नैतिकता चुनौतियां उन क्षेत्रों को उजागर करती हैं जहां हमारे कार्य हमारे साझा मूल्यों के साथ संघर्ष कर सकते हैं। इन चिंताओं का पता लगाने, कम करने, न्यूनतम करने, या समाप्त करने के लिए - हमें अपने कार्यों से संबंधित नैतिक "हां/नहीं" प्रश्न पूछने की आवश्यकता है, फिर आवश्यकतानुसार सुधारात्मक कार्रवाई करें। आइए कुछ नैतिक चुनौतियों और उनके द्वारा उठाए गए नैतिक प्रश्नों पर एक नज़र डालें:
#### 2.1 डेटा स्वामित्व
डेटा संग्रह अक्सर व्यक्तिगत डेटा से संबंधित होता है जो डेटा विषयों की पहचान कर सकता है। [डेटा स्वामित्व](https://permission.io/blog/data-ownership) डेटा के निर्माण, प्रसंस्करण, और प्रसार से संबंधित _नियंत्रण_ और [_उपयोगकर्ता अधिकारों_](https://permission.io/blog/data-ownership) के बारे में है।
हमें पूछने की आवश्यकता है:
* डेटा का मालिक कौन है? (उपयोगकर्ता या संगठन)
* डेटा विषयों के क्या अधिकार हैं? (जैसे: पहुंच, मिटाना, पोर्टेबिलिटी)
* संगठनों के क्या अधिकार हैं? (जैसे: दुर्भावनापूर्ण उपयोगकर्ता समीक्षाओं को सुधारना)
#### 2.2 सूचित सहमति
[सूचित सहमति](https://legaldictionary.net/informed-consent/) उपयोगकर्ताओं द्वारा किसी क्रिया (जैसे डेटा संग्रह) के लिए सहमति देने की प्रक्रिया को परिभाषित करती है, जिसमें _संबंधित तथ्यों_ की पूरी समझ होती है, जिसमें उद्देश्य, संभावित जोखिम, और विकल्प शामिल हैं।
यहां पूछने के लिए प्रश्न हैं:
* क्या उपयोगकर्ता (डेटा विषय) ने डेटा कैप्चर और उपयोग के लिए अनुमति दी?
* क्या उपयोगकर्ता ने समझा कि डेटा किस उद्देश्य के लिए कैप्चर किया गया था?
* क्या उपयोगकर्ता ने अपनी भागीदारी से संभावित जोखिमों को समझा?
#### 2.3 बौद्धिक संपदा
[बौद्धिक संपदा](https://en.wikipedia.org/wiki/Intellectual_property) मानव पहल से उत्पन्न अमूर्त निर्माणों को संदर्भित करती है, जो व्यक्तियों या व्यवसायों के लिए _आर्थिक मूल्य_ रख सकते हैं।
यहां पूछने के लिए प्रश्न हैं:
* क्या एकत्रित डेटा का उपयोगकर्ता या व्यवसाय के लिए आर्थिक मूल्य था?
* क्या यहां उपयोगकर्ता की बौद्धिक संपदा है?
* क्या यहां संगठन की बौद्धिक संपदा है?
* यदि ये अधिकार मौजूद हैं, तो हम उन्हें कैसे सुरक्षित कर रहे हैं?
#### 2.4 डेटा गोपनीयता
[डेटा गोपनीयता](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) या सूचना गोपनीयता उपयोगकर्ता गोपनीयता के संरक्षण और व्यक्तिगत रूप से पहचान योग्य जानकारी के साथ उपयोगकर्ता पहचान की सुरक्षा को संदर्भित करती है।
यहां पूछने के लिए प्रश्न हैं:
* क्या उपयोगकर्ताओं का (व्यक्तिगत) डेटा हैक और लीक से सुरक्षित है?
* क्या उपयोगकर्ताओं का डेटा केवल अधिकृत उपयोगकर्ताओं और संदर्भों तक पहुंच योग्य है?
* क्या डेटा साझा या प्रसारित करते समय उपयोगकर्ताओं की गुमनामी संरक्षित है?
* क्या उपयोगकर्ता को अनाम डेटासेट से पहचान से बाहर किया जा सकता है?
#### 2.5 भूल जाने का अधिकार
[भूल जाने का अधिकार](https://en.wikipedia.org/wiki/Right_to_be_forgotten) या [मिटाने का अधिकार](https://www.gdpreu.org/right-to-be-forgotten/) उपयोगकर्ताओं को अतिरिक्त व्यक्तिगत डेटा सुरक्षा प्रदान करता है। विशेष रूप से, यह उपयोगकर्ताओं को इंटरनेट खोजों और अन्य स्थानों से व्यक्तिगत डेटा को हटाने या हटाने का अनुरोध करने का अधिकार देता है, _विशिष्ट परिस्थितियों_ के तहत - उन्हें ऑनलाइन एक नई शुरुआत करने की अनुमति देता है बिना उनके पिछले कार्यों को उनके खिलाफ रखा जाए।
यहां पूछने के लिए प्रश्न हैं:
* क्या सिस्टम डेटा विषयों को मिटाने का अनुरोध करने की अनुमति देता है?
* क्या उपयोगकर्ता सहमति की वापसी स्वचालित मिटाने को ट्रिगर करनी चाहिए?
* क्या डेटा बिना सहमति या अवैध तरीकों से एकत्र किया गया था?
* क्या हम डेटा गोपनीयता के लिए सरकारी नियमों का पालन कर रहे हैं?
#### 2.6 डेटासेट पूर्वाग्रह
डेटासेट या [संग्रह पूर्वाग्रह](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) गैर-प्रतिनिधि डेटा के उपसमुच्चय का चयन करने के बारे में है, जो एल्गोरिदम विकास के लिए संभावित _असमानता_ पैदा करता है। पूर्वाग्रह के प्रकारों में चयन या नमूना पूर्वाग्रह, स्वयंसेवक पूर्वाग्रह, और उपकरण पूर्वाग्रह शामिल हैं।
यहां पूछने के लिए प्रश्न हैं:
* क्या हमने डेटा विषयों का प्रतिनिधि सेट भर्ती किया?
* क्या हमने विभिन्न पूर्वाग्रहों के लिए अपने एकत्रित या क्यूरेटेड डेटासेट का परीक्षण किया?
* क्या हम किसी भी खोजे गए पूर्वाग्रहों को कम या हटा सकते हैं?
#### 2.7 डेटा गुणवत्ता
[डेटा गुणवत्ता](https://lakefs.io/data-quality-testing/) हमारे एल्गोरिदम विकसित करने के लिए उपयोग किए गए क्यूरेटेड डेटासेट की वैधता को देखती है, यह जांचते हुए कि क्या विशेषताएं और रिकॉर्ड हमारे एआई उद्देश्य के लिए आवश्यक स्तर की सटीकता और स्थिरता को पूरा करते हैं।
यहां पूछने के लिए प्रश्न हैं:
* क्या हमने अपने उपयोग मामले के लिए वैध _विशेषताएं_ कैप्चर कीं?
* क्या डेटा विभिन्न डेटा स्रोतों में _संगत रूप से_ कैप्चर किया गया था?
* क्या डेटासेट विभिन्न परिस्थितियों या परिदृश्यों के लिए _पूर्ण_ है?
* क्या जानकारी वास्तविकता को दर्शाने में _सटीक रूप से_ कैप्चर की गई है?
#### 2.8 एल्गोरिदम निष्पक्षता
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) यह जांचता है कि क्या एल्गोरिदम डिज़ाइन व्यवस्थित रूप से डेटा विषयों के विशिष्ट उपसमूहों के खिलाफ भेदभाव करता है, जिससे _संसाधन आवंटन_ (जहां संसाधन उस समूह से इनकार या रोके जाते हैं) और _सेवा की गुणवत्ता_ (जहां AI कुछ उपसमूहों के लिए उतना सटीक नहीं है जितना कि दूसरों के लिए) में [संभावित नुकसान](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) हो सकता है।
यहां विचार करने वाले प्रश्न हैं:
* क्या हमने विविध उपसमूहों और परिस्थितियों के लिए मॉडल की सटीकता का मूल्यांकन किया?
* क्या हमने संभावित नुकसान (जैसे, रूढ़िवादिता) के लिए सिस्टम की जांच की?
* क्या हम पहचाने गए नुकसान को कम करने के लिए डेटा को संशोधित या मॉडल को पुनः प्रशिक्षित कर सकते हैं?
[AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) जैसे संसाधनों का अन्वेषण करें और अधिक जानें।
#### 2.9 गलत प्रस्तुति
[Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) यह पूछने के बारे में है कि क्या हम ईमानदारी से रिपोर्ट किए गए डेटा से अंतर्दृष्टि को एक वांछित कथा का समर्थन करने के लिए धोखाधड़ी तरीके से प्रस्तुत कर रहे हैं।
यहां विचार करने वाले प्रश्न हैं:
* क्या हम अधूरी या गलत डेटा रिपोर्ट कर रहे हैं?
* क्या हम डेटा को इस तरह से विज़ुअलाइज़ कर रहे हैं जो भ्रामक निष्कर्षों को प्रेरित करता है?
* क्या हम परिणामों में हेरफेर करने के लिए चयनात्मक सांख्यिकीय तकनीकों का उपयोग कर रहे हैं?
* क्या वैकल्पिक व्याख्याएं हैं जो एक अलग निष्कर्ष प्रदान कर सकती हैं?
#### 2.10 स्वतंत्र विकल्प
[Illusion of Free Choice](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) तब होती है जब सिस्टम "चॉइस आर्किटेक्चर" निर्णय लेने वाले एल्गोरिदम का उपयोग लोगों को एक पसंदीदा परिणाम लेने के लिए प्रेरित करने के लिए करता है, जबकि उन्हें विकल्प और नियंत्रण देने का दिखावा करता है। ये [dark patterns](https://www.darkpatterns.org/) उपयोगकर्ताओं को सामाजिक और आर्थिक नुकसान पहुंचा सकते हैं। क्योंकि उपयोगकर्ता के निर्णय व्यवहार प्रोफाइल को प्रभावित करते हैं, ये क्रियाएं संभावित रूप से भविष्य के विकल्पों को चला सकती हैं जो इन नुकसानों के प्रभाव को बढ़ा या विस्तारित कर सकती हैं।
यहां विचार करने वाले प्रश्न हैं:
* क्या उपयोगकर्ता ने उस विकल्प को चुनने के निहितार्थ को समझा?
* क्या उपयोगकर्ता (वैकल्पिक) विकल्पों और प्रत्येक के फायदे और नुकसान से अवगत था?
* क्या उपयोगकर्ता स्वचालित या प्रभावित विकल्प को बाद में उलट सकता है?
### 3. केस स्टडीज
इन नैतिक चुनौतियों को वास्तविक दुनिया के संदर्भों में रखने के लिए, उन केस स्टडीज को देखना मददगार होता है जो व्यक्तियों और समाज पर संभावित नुकसान और परिणामों को उजागर करते हैं, जब ऐसी नैतिक उल्लंघनों को नजरअंदाज किया जाता है।
यहां कुछ उदाहरण दिए गए हैं:
| नैतिक चुनौती | केस स्टडी |
|--- |--- |
| **सूचित सहमति** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - अफ्रीकी अमेरिकी पुरुषों को जो अध्ययन में भाग लेते थे, मुफ्त चिकित्सा देखभाल का वादा किया गया था _लेकिन शोधकर्ताओं द्वारा धोखा दिया गया_ जिन्होंने विषयों को उनके निदान या उपचार की उपलब्धता के बारे में सूचित करने में विफलता की। कई विषयों की मृत्यु हो गई और उनके साथी या बच्चे प्रभावित हुए; अध्ययन 40 वर्षों तक चला। |
| **डेटा गोपनीयता** | 2007 - [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ने शोधकर्ताओं को _50K ग्राहकों से 10M गुमनाम मूवी रैंकिंग_ प्रदान की ताकि सिफारिश एल्गोरिदम में सुधार किया जा सके। हालांकि, शोधकर्ता गुमनाम डेटा को _बाहरी डेटासेट्स_ (जैसे, IMDb टिप्पणियां) में व्यक्तिगत पहचान योग्य डेटा के साथ सहसंबंधित करने में सक्षम थे - प्रभावी रूप से कुछ Netflix ग्राहकों को "डी-एनोनिमाइज़" कर दिया।|
| **संग्रह पूर्वाग्रह** | 2013 - बोस्टन शहर ने [Street Bump](https://www.boston.gov/transportation/street-bump) विकसित किया, एक ऐप जिसने नागरिकों को गड्ढों की रिपोर्ट करने दी, जिससे शहर को बेहतर सड़क डेटा प्राप्त हुआ। हालांकि, [कम आय समूहों के लोगों के पास कारों और फोन तक कम पहुंच थी](https://hbr.org/2013/04/the-hidden-biases-in-big-data), जिससे उनके सड़क मुद्दे इस ऐप में अदृश्य हो गए। डेवलपर्स ने निष्पक्षता के लिए _समान पहुंच और डिजिटल विभाजन_ मुद्दों पर काम किया। |
| **एल्गोरिदम निष्पक्षता** | 2018 - MIT [Gender Shades Study](http://gendershades.org/overview.html) ने लिंग वर्गीकरण AI उत्पादों की सटीकता का मूल्यांकन किया, महिलाओं और रंग के व्यक्तियों के लिए सटीकता में अंतर को उजागर किया। एक [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ने पुरुषों की तुलना में महिलाओं को कम क्रेडिट की पेशकश की। दोनों ने एल्गोरिदम पूर्वाग्रह में मुद्दों को उजागर किया जिससे सामाजिक-आर्थिक नुकसान हुआ।|
| **डेटा गलत प्रस्तुति** | 2020 - [Georgia Department of Public Health ने COVID-19 चार्ट जारी किए](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) जो पुष्टि किए गए मामलों में रुझानों के बारे में नागरिकों को गुमराह करने के लिए x-अक्ष पर गैर-कालानुक्रमिक क्रम का उपयोग करते थे। यह विज़ुअलाइज़ेशन ट्रिक्स के माध्यम से गलत प्रस्तुति को दर्शाता है। |
| **स्वतंत्र विकल्प का भ्रम** | 2020 - लर्निंग ऐप [ABCmouse ने FTC शिकायत को निपटाने के लिए $10M का भुगतान किया](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) जहां माता-पिता को ऐसी सदस्यताओं के लिए भुगतान करने के लिए मजबूर किया गया जिन्हें वे रद्द नहीं कर सकते थे। यह चॉइस आर्किटेक्चर में डार्क पैटर्न को दर्शाता है, जहां उपयोगकर्ताओं को संभावित रूप से हानिकारक विकल्पों की ओर प्रेरित किया गया। |
| **डेटा गोपनीयता और उपयोगकर्ता अधिकार** | 2021 - Facebook [Data Breach](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ने 530M उपयोगकर्ताओं से डेटा को उजागर किया, जिसके परिणामस्वरूप FTC को $5B का निपटान हुआ। हालांकि, इसने उपयोगकर्ताओं को उल्लंघन के बारे में सूचित करने से इनकार कर दिया, उपयोगकर्ता अधिकारों का उल्लंघन किया। |
अधिक केस स्टडीज का अन्वेषण करना चाहते हैं? इन संसाधनों को देखें:
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - विभिन्न उद्योगों में नैतिक दुविधाएं।
* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - प्रमुख केस स्टडीज का अन्वेषण।
* [Where things have gone wrong](https://deon.drivendata.org/examples/) - डिऑन चेकलिस्ट के साथ उदाहरण।
> 🚨 उन केस स्टडीज के बारे में सोचें जिन्हें आपने देखा है - क्या आपने अपने जीवन में इसी तरह की नैतिक चुनौती का अनुभव किया है या इससे प्रभावित हुए हैं? क्या आप इस खंड में चर्चा की गई नैतिक चुनौतियों में से किसी एक को दर्शाने वाला कम से कम एक अन्य केस स्टडी सोच सकते हैं?
## व्यावहारिक नैतिकता
हमने नैतिकता की अवधारणाओं, चुनौतियों और वास्तविक दुनिया के संदर्भों में केस स्टडीज के बारे में बात की। लेकिन हम अपने प्रोजेक्ट्स में नैतिक सिद्धांतों और प्रथाओं को लागू करना कैसे शुरू करें? और बेहतर शासन के लिए इन प्रथाओं को कैसे _संचालित_ करें? आइए कुछ वास्तविक दुनिया के समाधान तलाशें:
### 1. पेशेवर कोड
पेशेवर कोड संगठनों को अपने नैतिक सिद्धांतों और मिशन स्टेटमेंट का समर्थन करने के लिए सदस्यों को "प्रोत्साहित" करने का एक विकल्प प्रदान करते हैं। कोड पेशेवर व्यवहार के लिए _नैतिक दिशानिर्देश_ हैं, जो कर्मचारियों या सदस्यों को निर्णय लेने में मदद करते हैं जो उनके संगठन के सिद्धांतों के साथ मेल खाते हैं। वे केवल सदस्यों से स्वैच्छिक अनुपालन जितने अच्छे होते हैं; हालांकि, कई संगठन सदस्यों से अनुपालन को प्रेरित करने के लिए अतिरिक्त पुरस्कार और दंड प्रदान करते हैं।
उदाहरणों में शामिल हैं:
* [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Code of Ethics
* [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Code of Conduct (2013 में बनाया गया)
* [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (1993 से)
> 🚨 क्या आप किसी पेशेवर इंजीनियरिंग या डेटा साइंस संगठन के सदस्य हैं? उनकी साइट का अन्वेषण करें और देखें कि क्या वे पेशेवर नैतिकता का कोड परिभाषित करते हैं। यह उनके नैतिक सिद्धांतों के बारे में क्या कहता है? वे सदस्यों को कोड का पालन करने के लिए कैसे "प्रोत्साहित" कर रहे हैं?
### 2. नैतिकता चेकलिस्ट
जबकि पेशेवर कोड चिकित्सकों से आवश्यक _नैतिक व्यवहार_ को परिभाषित करते हैं, वे [ज्ञात सीमाएं](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) बड़े पैमाने पर परियोजनाओं में प्रवर्तन में रखते हैं। इसके बजाय, कई डेटा साइंस विशेषज्ञ [चेकलिस्ट](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) की वकालत करते हैं, जो **सिद्धांतों को प्रथाओं से जोड़ सकते हैं** अधिक निर्धारक और क्रियाशील तरीकों से।
चेकलिस्ट प्रश्नों को "हां/नहीं" कार्यों में बदल देती हैं जिन्हें संचालित किया जा सकता है, जिससे उन्हें मानक उत्पाद रिलीज़ वर्कफ़्लो के हिस्से के रूप में ट्रैक किया जा सकता है।
उदाहरणों में शामिल हैं:
* [Deon](https://deon.drivendata.org/) - उद्योग सिफारिशों से [सामान्य-उद्देश्य डेटा नैतिकता चेकलिस्ट](https://deon.drivendata.org/#checklist-citations) एक कमांड-लाइन टूल के साथ आसान एकीकरण के लिए।
* [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - कानूनी और सामाजिक जोखिम परिप्रेक्ष्य से सूचना प्रबंधन प्रथाओं के लिए सामान्य मार्गदर्शन प्रदान करता है।
* [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - AI विकास चक्रों में निष्पक्षता जांच को अपनाने और एकीकृत करने के लिए AI चिकित्सकों द्वारा बनाया गया।
* [22 questions for ethics in data and AI](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - अधिक खुले-समाप्त ढांचा, डिजाइन, कार्यान्वयन, और संगठनात्मक संदर्भों में नैतिक मुद्दों की प्रारंभिक खोज के लिए संरचित।
### 3. नैतिकता नियम
नैतिकता साझा मूल्यों को परिभाषित करने और _स्वेच्छा से_ सही काम करने के बारे में है। **अनुपालन** परिभाषित कानूनों का पालन करने के बारे में है। **शासन** व्यापक रूप से उन सभी तरीकों को कवर करता है जिनमें संगठन नैतिक सिद्धांतों को लागू करने और स्थापित कानूनों का पालन करने के लिए काम करते हैं।
आज, संगठनों के भीतर शासन दो रूप लेता है। पहला, यह **नैतिक AI** सिद्धांतों को परिभाषित करने और संगठन में सभी AI-संबंधित परियोजनाओं में अपनाने को संचालित करने के लिए प्रथाओं को स्थापित करने के बारे में है। दूसरा, यह उन क्षेत्रों के लिए सभी सरकारी-अनिवार्य **डेटा संरक्षण नियमों** का पालन करने के बारे में है जिनमें यह संचालित होता है।
डेटा संरक्षण और गोपनीयता नियमों के उदाहरण:
* `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - _संघीय सरकार_ द्वारा व्यक्तिगत जानकारी के संग्रह, उपयोग और प्रकटीकरण को नियंत्रित करता है।
* `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - व्यक्तिगत स्वास्थ्य डेटा की सुरक्षा करता है।
* `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - 13 वर्ष से कम उम्र के बच्चों के डेटा गोपनीयता की सुरक्षा करता है।
* `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - उपयोगकर्ता अधिकार, डेटा संरक्षण और गोपनीयता प्रदान करता है।
* `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) उपभोक्ताओं को उनके (व्यक्तिगत) डेटा पर अधिक _अधिकार_ देता है।
* `2021`, चीन का [Personal Information Protection Law](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) अभी पारित हुआ, जो दुनिया में सबसे मजबूत ऑनलाइन डेटा गोपनीयता नियमों में से एक बनाता है।
> 🚨 यूरोपीय संघ द्वारा परिभाषित GDPR (General Data Protection Regulation) आज सबसे प्रभावशाली डेटा गोपनीयता नियमों में से एक बना हुआ है। क्या आप जानते हैं कि यह नागरिकों की डिजिटल गोपनीयता और व्यक्तिगत डेटा की सुरक्षा के लिए [8 उपयोगकर्ता अधिकार](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) भी परिभाषित करता है? जानें कि ये क्या हैं और क्यों महत्वपूर्ण हैं।
### 4. नैतिकता संस्कृति
ध्यान दें कि _अनुपालन_ (कानून के "अक्षर" को पूरा करने के लिए पर्याप्त करना) और [प्रणालीगत मुद्दों](https://www.coursera.org/learn/data-science-ethics/home/week/4) (जैसे, कठोरता, सूचना विषमता, और वितरणीय अन्याय) को संबोधित करने के बीच एक अमूर्त अंतर बना रहता है जो AI के हथियारकरण को तेज कर सकता है।
उत्तरार्द्ध को [नैतिकता संस्कृतियों को परिभाषित करने के लिए सहयोगात्मक दृष्टिकोण](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) की आवश्यकता होती है जो उद्योग में _संगठनों_ के बीच भावनात्मक संबंध और लगातार साझा मूल्य बनाते हैं। यह संगठनों में अधिक [औपचारिक डेटा नैतिकता संस्कृतियों](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) के लिए कॉल करता है - जिससे _कोई भी_ [Andon cord खींच सके](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (प्रक्रिया में जल्दी नैतिक चिंताओं को उठाने के लिए) और _नैतिक आकलन_ (जैसे, भर्ती में) AI परियोजनाओं में टीम गठन के लिए एक मुख्य मानदंड बना सके।
---
## [पोस्ट-लेक्चर क्विज़](https://ff-quizzes.netlify.app/en/ds/quiz/3) 🎯
## समीक्षा और स्व-अध्ययन
पाठ्यक्रम और पुस्तकें मुख्य नैतिकता अवधारणाओं और चुनौतियों को समझने में मदद करती हैं, जबकि केस स्टडीज और उपकरण वास्तविक दुनिया के संदर्भों में व्यावहारिक नैतिकता प्रथाओं में मदद करते हैं। यहां शुरू करने के लिए कुछ संसाधन दिए गए हैं।
* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - Microsoft से निष्पक्षता पर पाठ।
* [जिम्मेदार AI के सिद्धांत](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn से मुफ्त शिक्षण पथ।
* [नैतिकता और डेटा विज्ञान](https://resources.oreilly.com/examples/0636920203964) - ओ'रेली ईबुक (एम. लुकाइड्स, एच. मेसन आदि)
* [डेटा विज्ञान नैतिकता](https://www.coursera.org/learn/data-science-ethics#syllabus) - मिशिगन विश्वविद्यालय से ऑनलाइन कोर्स।
* [एथिक्स अनरैप्ड](https://ethicsunwrapped.utexas.edu/case-studies) - टेक्सास विश्वविद्यालय से केस स्टडी।
# असाइनमेंट
[डेटा नैतिकता पर केस स्टडी लिखें](assignment.md)
---
**अस्वीकरण**:
यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।