You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
264 lines
60 KiB
264 lines
60 KiB
<!--
|
|
CO_OP_TRANSLATOR_METADATA:
|
|
{
|
|
"original_hash": "8796f41f566a0a8ebb72863a83d558ed",
|
|
"translation_date": "2025-08-24T21:23:04+00:00",
|
|
"source_file": "1-Introduction/02-ethics/README.md",
|
|
"language_code": "hi"
|
|
}
|
|
-->
|
|
# डेटा नैतिकता का परिचय
|
|
|
|
| द्वारा ](../../sketchnotes/02-Ethics.png)|
|
|
|:---:|
|
|
| डेटा साइंस नैतिकता - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
|
|
|
|
---
|
|
|
|
हम सभी एक डेटा-प्रधान दुनिया में डेटा नागरिक हैं।
|
|
|
|
बाजार के रुझान बताते हैं कि 2022 तक, हर 3 में से 1 बड़ी कंपनी अपना डेटा ऑनलाइन [मार्केटप्लेस और एक्सचेंज](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) के माध्यम से खरीदेगी और बेचेगी। एक **ऐप डेवलपर** के रूप में, हमारे लिए डेटा-आधारित अंतर्दृष्टि और एल्गोरिदम-आधारित स्वचालन को दैनिक उपयोगकर्ता अनुभवों में एकीकृत करना आसान और सस्ता हो जाएगा। लेकिन जैसे-जैसे एआई सर्वव्यापी होता जा रहा है, हमें यह भी समझने की आवश्यकता होगी कि बड़े पैमाने पर ऐसे एल्गोरिदम के [हथियारकरण](https://www.youtube.com/watch?v=TQHs8SA1qpk) से क्या संभावित नुकसान हो सकते हैं।
|
|
|
|
रुझान यह भी बताते हैं कि हम 2025 तक [180 ज़ेटाबाइट्स](https://www.statista.com/statistics/871513/worldwide-data-created/) से अधिक डेटा बनाएंगे और उपभोग करेंगे। एक **डेटा वैज्ञानिक** के रूप में, यह हमें व्यक्तिगत डेटा तक अभूतपूर्व स्तर की पहुंच प्रदान करता है। इसका मतलब है कि हम उपयोगकर्ताओं की व्यवहारिक प्रोफाइल बना सकते हैं और निर्णय लेने को इस तरह प्रभावित कर सकते हैं कि यह [मुक्त चुनाव का भ्रम](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) पैदा करे, जबकि उपयोगकर्ताओं को उन परिणामों की ओर धकेल सकता है जो हमें पसंद हैं। यह डेटा गोपनीयता और उपयोगकर्ता सुरक्षा पर व्यापक सवाल भी उठाता है।
|
|
|
|
डेटा नैतिकता अब डेटा विज्ञान और इंजीनियरिंग के लिए _आवश्यक सुरक्षा उपाय_ बन गई है, जो हमारे डेटा-आधारित कार्यों से संभावित नुकसान और अनपेक्षित परिणामों को कम करने में मदद करती है। [गार्टनर हाइप साइकिल फॉर एआई](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) डिजिटल नैतिकता, जिम्मेदार एआई, और एआई गवर्नेंस में प्रासंगिक रुझानों की पहचान करता है, जो एआई के _लोकतंत्रीकरण_ और _औद्योगिकीकरण_ जैसे बड़े मेगाट्रेंड्स के प्रमुख चालक हैं।
|
|
|
|

|
|
|
|
इस पाठ में, हम डेटा नैतिकता के आकर्षक क्षेत्र का अन्वेषण करेंगे - मुख्य अवधारणाओं और चुनौतियों से लेकर केस स्टडी और एआई अवधारणाओं जैसे गवर्नेंस तक - जो डेटा और एआई के साथ काम करने वाली टीमों और संगठनों में नैतिकता की संस्कृति स्थापित करने में मदद करती हैं।
|
|
|
|
## [पाठ-पूर्व क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
|
|
|
|
## बुनियादी परिभाषाएँ
|
|
|
|
आइए बुनियादी शब्दावली को समझने से शुरू करें।
|
|
|
|
"नैतिकता" शब्द [ग्रीक शब्द "एथिकोस"](https://en.wikipedia.org/wiki/Ethics) (और इसकी जड़ "एथोस") से आया है, जिसका अर्थ है _चरित्र या नैतिक प्रकृति_।
|
|
|
|
**नैतिकता** उन साझा मूल्यों और नैतिक सिद्धांतों के बारे में है जो समाज में हमारे व्यवहार को नियंत्रित करते हैं। नैतिकता कानूनों पर आधारित नहीं है, बल्कि इस बात पर आधारित है कि "सही बनाम गलत" क्या है, इसके व्यापक रूप से स्वीकृत मानदंड क्या हैं। हालांकि, नैतिक विचार कॉर्पोरेट गवर्नेंस पहलों और सरकारी नियमों को प्रभावित कर सकते हैं, जो अनुपालन के लिए अधिक प्रोत्साहन पैदा करते हैं।
|
|
|
|
**डेटा नैतिकता** नैतिकता की एक [नई शाखा](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) है जो "_डेटा, एल्गोरिदम और संबंधित प्रथाओं_" से संबंधित नैतिक समस्याओं का अध्ययन और मूल्यांकन करती है। यहां, **"डेटा"** डेटा के निर्माण, रिकॉर्डिंग, क्यूरेशन, प्रोसेसिंग, प्रसार, साझाकरण और उपयोग से संबंधित कार्यों पर केंद्रित है, **"एल्गोरिदम"** एआई, एजेंट, मशीन लर्निंग और रोबोट पर केंद्रित है, और **"प्रथाएं"** जिम्मेदार नवाचार, प्रोग्रामिंग, हैकिंग और नैतिकता कोड जैसे विषयों पर केंद्रित हैं।
|
|
|
|
**लागू नैतिकता** नैतिक विचारों का [व्यावहारिक अनुप्रयोग](https://en.wikipedia.org/wiki/Applied_ethics) है। यह _वास्तविक दुनिया के कार्यों, उत्पादों और प्रक्रियाओं_ के संदर्भ में नैतिक मुद्दों की सक्रिय रूप से जांच करने और यह सुनिश्चित करने के लिए सुधारात्मक उपाय करने की प्रक्रिया है कि ये हमारे परिभाषित नैतिक मूल्यों के साथ संरेखित रहें।
|
|
|
|
**नैतिकता संस्कृति** [_लागू नैतिकता_ को लागू करने](https://hbr.org/2019/05/how-to-design-an-ethical-organization) के बारे में है ताकि यह सुनिश्चित किया जा सके कि हमारे नैतिक सिद्धांत और प्रथाएं पूरे संगठन में लगातार और मापनीय तरीके से अपनाई जाएं। सफल नैतिकता संस्कृतियां संगठन-व्यापी नैतिक सिद्धांतों को परिभाषित करती हैं, अनुपालन के लिए सार्थक प्रोत्साहन प्रदान करती हैं, और संगठन के हर स्तर पर वांछित व्यवहार को प्रोत्साहित और बढ़ावा देकर नैतिकता के मानदंडों को सुदृढ़ करती हैं।
|
|
|
|
## नैतिकता की अवधारणाएँ
|
|
|
|
इस खंड में, हम **साझा मूल्य** (सिद्धांत) और **नैतिक चुनौतियों** (समस्याओं) जैसी अवधारणाओं पर चर्चा करेंगे, और **केस स्टडी** का अन्वेषण करेंगे जो आपको वास्तविक दुनिया के संदर्भों में इन अवधारणाओं को समझने में मदद करती हैं।
|
|
|
|
### 1. नैतिकता के सिद्धांत
|
|
|
|
हर डेटा नैतिकता रणनीति _नैतिक सिद्धांतों_ को परिभाषित करने से शुरू होती है - "साझा मूल्य" जो स्वीकार्य व्यवहारों का वर्णन करते हैं और हमारे डेटा और एआई परियोजनाओं में अनुपालन कार्यों का मार्गदर्शन करते हैं। आप इन्हें व्यक्तिगत या टीम स्तर पर परिभाषित कर सकते हैं। हालांकि, अधिकांश बड़े संगठन इन्हें एक _नैतिक एआई_ मिशन स्टेटमेंट या ढांचे में परिभाषित करते हैं, जो कॉर्पोरेट स्तरों पर परिभाषित और सभी टीमों में लगातार लागू किया जाता है।
|
|
|
|
**उदाहरण:** माइक्रोसॉफ्ट का [जिम्मेदार एआई](https://www.microsoft.com/en-us/ai/responsible-ai) मिशन स्टेटमेंट कहता है: _"हम एआई के विकास के लिए प्रतिबद्ध हैं, जो नैतिक सिद्धांतों द्वारा संचालित है जो लोगों को प्राथमिकता देता है"_ - जो नीचे दिए गए ढांचे में 6 नैतिक सिद्धांतों की पहचान करता है:
|
|
|
|

|
|
|
|
आइए इन सिद्धांतों का संक्षेप में अन्वेषण करें। _पारदर्शिता_ और _जवाबदेही_ वे बुनियादी मूल्य हैं जिन पर अन्य सिद्धांत आधारित हैं - तो चलिए वहीं से शुरू करते हैं:
|
|
|
|
* [**जवाबदेही**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) यह सुनिश्चित करती है कि डेटा और एआई संचालन के लिए अभ्यासकर्ता _जिम्मेदार_ हों और इन नैतिक सिद्धांतों का अनुपालन करें।
|
|
* [**पारदर्शिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) यह सुनिश्चित करती है कि डेटा और एआई कार्य _समझने योग्य_ (व्याख्यात्मक) हों, उपयोगकर्ताओं को निर्णयों के पीछे "क्या और क्यों" समझाने में सक्षम बनाएं।
|
|
* [**निष्पक्षता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - यह सुनिश्चित करने पर केंद्रित है कि एआई _सभी लोगों_ के साथ निष्पक्ष व्यवहार करे, डेटा और प्रणालियों में किसी भी प्रणालीगत या निहित सामाजिक-तकनीकी पूर्वाग्रह को संबोधित करे।
|
|
* [**विश्वसनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - यह सुनिश्चित करती है कि एआई _परिभाषित मूल्यों_ के साथ लगातार व्यवहार करे, संभावित नुकसान या अनपेक्षित परिणामों को कम करे।
|
|
* [**गोपनीयता और सुरक्षा**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - डेटा की उत्पत्ति को समझने और उपयोगकर्ताओं को _डेटा गोपनीयता और संबंधित सुरक्षा_ प्रदान करने के बारे में है।
|
|
* [**समावेशिता**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - यह इरादे के साथ एआई समाधान डिजाइन करने के बारे में है, उन्हें _मानव आवश्यकताओं और क्षमताओं की एक विस्तृत श्रृंखला_ को पूरा करने के लिए अनुकूलित करना।
|
|
|
|
> 🚨 सोचें कि आपका डेटा नैतिकता मिशन स्टेटमेंट क्या हो सकता है। अन्य संगठनों के नैतिक एआई ढांचे का अन्वेषण करें - यहां [आईबीएम](https://www.ibm.com/cloud/learn/ai-ethics), [गूगल](https://ai.google/principles), और [फेसबुक](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) के उदाहरण हैं। उनके साझा मूल्यों में क्या समानता है? ये सिद्धांत उनके एआई उत्पाद या उद्योग से कैसे संबंधित हैं?
|
|
|
|
### 2. नैतिकता की चुनौतियाँ
|
|
|
|
एक बार जब हमने नैतिक सिद्धांतों को परिभाषित कर लिया, तो अगला कदम यह मूल्यांकन करना है कि क्या हमारे डेटा और एआई कार्य उन साझा मूल्यों के साथ संरेखित हैं। अपने कार्यों को दो श्रेणियों में सोचें: _डेटा संग्रह_ और _एल्गोरिदम डिज़ाइन_।
|
|
|
|
डेटा संग्रह के साथ, कार्यों में संभवतः **व्यक्तिगत डेटा** या व्यक्तिगत रूप से पहचान योग्य जानकारी (PII) शामिल होगी जो जीवित व्यक्तियों की पहचान करती है। इसमें [गैर-व्यक्तिगत डेटा की विविध वस्तुएं](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) शामिल हैं जो _सामूहिक रूप से_ किसी व्यक्ति की पहचान करती हैं। नैतिक चुनौतियाँ _डेटा गोपनीयता_, _डेटा स्वामित्व_, और _सहमति_ और _बौद्धिक संपदा अधिकार_ जैसे संबंधित विषयों से संबंधित हो सकती हैं।
|
|
|
|
एल्गोरिदम डिज़ाइन के साथ, कार्यों में **डेटासेट** एकत्र करना और क्यूरेट करना, फिर उन्हें वास्तविक दुनिया के संदर्भों में परिणामों की भविष्यवाणी करने या निर्णयों को स्वचालित करने के लिए **डेटा मॉडल** को प्रशिक्षित और तैनात करना शामिल होगा। नैतिक चुनौतियाँ _डेटासेट पूर्वाग्रह_, _डेटा गुणवत्ता_ मुद्दों, _अन्याय_, और एल्गोरिदम में _गलत प्रस्तुति_ से उत्पन्न हो सकती हैं - जिनमें से कुछ मुद्दे प्रणालीगत प्रकृति के हो सकते हैं।
|
|
|
|
दोनों मामलों में, नैतिकता की चुनौतियाँ उन क्षेत्रों को उजागर करती हैं जहाँ हमारे कार्य हमारे साझा मूल्यों के साथ संघर्ष कर सकते हैं। इन चिंताओं का पता लगाने, कम करने, न्यूनतम करने, या समाप्त करने के लिए - हमें अपने कार्यों से संबंधित नैतिक "हां/नहीं" प्रश्न पूछने की आवश्यकता है, फिर आवश्यकतानुसार सुधारात्मक कार्रवाई करें। आइए कुछ नैतिक चुनौतियों और उनके द्वारा उठाए गए नैतिक प्रश्नों पर एक नज़र डालें:
|
|
|
|
#### 2.1 डेटा स्वामित्व
|
|
|
|
डेटा संग्रह में अक्सर व्यक्तिगत डेटा शामिल होता है जो डेटा विषयों की पहचान कर सकता है। [डेटा स्वामित्व](https://permission.io/blog/data-ownership) डेटा के निर्माण, प्रोसेसिंग, और प्रसार से संबंधित _नियंत्रण_ और [_उपयोगकर्ता अधिकारों_](https://permission.io/blog/data-ownership) के बारे में है।
|
|
|
|
पूछे जाने वाले नैतिक प्रश्न:
|
|
* डेटा का स्वामी कौन है? (उपयोगकर्ता या संगठन)
|
|
* डेटा विषयों के क्या अधिकार हैं? (जैसे: पहुंच, मिटाना, पोर्टेबिलिटी)
|
|
* संगठनों के क्या अधिकार हैं? (जैसे: दुर्भावनापूर्ण उपयोगकर्ता समीक्षाओं को सुधारना)
|
|
|
|
#### 2.2 सूचित सहमति
|
|
|
|
[सूचित सहमति](https://legaldictionary.net/informed-consent/) उपयोगकर्ताओं द्वारा किसी कार्रवाई (जैसे डेटा संग्रह) के लिए _संपूर्ण समझ_ के साथ सहमति देने की प्रक्रिया को परिभाषित करती है, जिसमें उद्देश्य, संभावित जोखिम, और विकल्प शामिल हैं।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या उपयोगकर्ता (डेटा विषय) ने डेटा कैप्चर और उपयोग के लिए अनुमति दी?
|
|
* क्या उपयोगकर्ता ने समझा कि डेटा किस उद्देश्य से कैप्चर किया गया था?
|
|
* क्या उपयोगकर्ता ने अपनी भागीदारी से संभावित जोखिमों को समझा?
|
|
|
|
#### 2.3 बौद्धिक संपदा
|
|
|
|
[बौद्धिक संपदा](https://en.wikipedia.org/wiki/Intellectual_property) मानव पहल से उत्पन्न अमूर्त रचनाओं को संदर्भित करती है, जिनका _आर्थिक मूल्य_ व्यक्तियों या व्यवसायों के लिए हो सकता है।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या एकत्रित डेटा का उपयोगकर्ता या व्यवसाय के लिए आर्थिक मूल्य था?
|
|
* क्या उपयोगकर्ता के पास यहाँ बौद्धिक संपदा है?
|
|
* क्या संगठन के पास यहाँ बौद्धिक संपदा है?
|
|
* यदि ये अधिकार मौजूद हैं, तो हम उन्हें कैसे सुरक्षित कर रहे हैं?
|
|
|
|
#### 2.4 डेटा गोपनीयता
|
|
|
|
[डेटा गोपनीयता](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) या सूचना गोपनीयता उपयोगकर्ता गोपनीयता और व्यक्तिगत रूप से पहचान योग्य जानकारी के संबंध में उपयोगकर्ता पहचान की सुरक्षा को संदर्भित करती है।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या उपयोगकर्ताओं का (व्यक्तिगत) डेटा हैक और लीक से सुरक्षित है?
|
|
* क्या उपयोगकर्ताओं का डेटा केवल अधिकृत उपयोगकर्ताओं और संदर्भों तक ही सुलभ है?
|
|
* क्या डेटा साझा या प्रसारित करते समय उपयोगकर्ताओं की गुमनामी संरक्षित है?
|
|
* क्या उपयोगकर्ता को गुमनाम डेटासेट से पुनः पहचाना जा सकता है?
|
|
|
|
#### 2.5 भुलाए जाने का अधिकार
|
|
|
|
[भुलाए जाने का अधिकार](https://en.wikipedia.org/wiki/Right_to_be_forgotten) या [मिटाने का अधिकार](https://www.gdpreu.org/right-to-be-forgotten/) उपयोगकर्ताओं को अतिरिक्त व्यक्तिगत डेटा सुरक्षा प्रदान करता है। विशेष रूप से, यह उपयोगकर्ताओं को इंटरनेट खोजों और अन्य स्थानों से व्यक्तिगत डेटा को हटाने या हटाने का अनुरोध करने का अधिकार देता है, _विशिष्ट परिस्थितियों_ के तहत - उन्हें ऑनलाइन एक नई शुरुआत करने की अनुमति देता है।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या सिस्टम डेटा विषयों को मिटाने का अनुरोध करने की अनुमति देता है?
|
|
* क्या उपयोगकर्ता की सहमति की वापसी स्वचालित मिटाने को ट्रिगर करनी चाहिए?
|
|
* क्या डेटा बिना सहमति या अवैध तरीकों से एकत्र किया गया था?
|
|
* क्या हम डेटा गोपनीयता के लिए सरकारी नियमों का पालन कर रहे हैं?
|
|
|
|
#### 2.6 डेटासेट पूर्वाग्रह
|
|
|
|
डेटासेट या [संग्रह पूर्वाग्रह](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) एक _गैर-प्रतिनिधि_ डेटा उपसमुच्चय का चयन करने के बारे में है, जो विविध समूहों के लिए परिणामों में संभावित अन्याय पैदा करता है। पूर्वाग्रह के प्रकारों में चयन या सैंपलिंग पूर्वाग्रह, स्वयंसेवक पूर्वाग्रह, और उपकरण पूर्वाग्रह शामिल हैं।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या हमने डेटा विषयों का एक प्रतिनिधि सेट भर्ती किया?
|
|
* क्या हमने विभिन्न पूर्वाग्रहों के लिए अपने एकत्रित या क्यूरेटेड डेटासेट का परीक्षण किया?
|
|
* क्या हम किसी भी खोजे गए पूर्वाग्रहों को कम या हटा सकते हैं?
|
|
|
|
#### 2.7 डेटा गुणवत्ता
|
|
|
|
[डेटा गुणवत्ता](https://lakefs.io/data-quality-testing/) हमारे एल्गोरिदम को विकसित करने के लिए उपयोग किए गए क्यूरेटेड डेटासेट की वैधता को देखती है, यह जांचते हुए कि क्या विशेषताएँ और रिकॉर्ड हमारे एआई उद्देश्य के लिए आवश्यक सटीकता और स्थिरता के स्तर को पूरा करते हैं।
|
|
|
|
यहाँ पूछे जाने वाले प्रश्न:
|
|
* क्या हमने अपने उपयोग के मामले के लिए वैध _विशेषताएँ_ कैप्चर कीं?
|
|
* क्या डेटा को विभिन्न डेटा स्रोतों में _संगत रूप से_ कैप्चर किया गया था?
|
|
* क्या डेटासेट विविध परिस्थितियों या परिदृश्यों के लिए _पूर्ण_ है?
|
|
* क्या जानकारी वास्तविकता को दर्शाने में _सटीक_ रूप से कैप्चर की गई है?
|
|
|
|
#### 2.8 एल्गोरिदम निष्पक्षता
|
|
[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) यह जांचता है कि क्या एल्गोरिदम डिज़ाइन किसी विशेष डेटा समूह के खिलाफ व्यवस्थित रूप से भेदभाव करता है, जिससे _संसाधन आवंटन_ (जहां संसाधन उस समूह से वंचित या रोके जाते हैं) और _सेवा की गुणवत्ता_ (जहां एआई कुछ समूहों के लिए उतना सटीक नहीं है जितना कि दूसरों के लिए है) में [संभावित नुकसान](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) हो सकते हैं।
|
|
|
|
यहां विचार करने वाले प्रश्न हैं:
|
|
* क्या हमने विभिन्न समूहों और परिस्थितियों के लिए मॉडल की सटीकता का मूल्यांकन किया?
|
|
* क्या हमने प्रणाली में संभावित नुकसान (जैसे, रूढ़िवादिता) की जांच की?
|
|
* क्या हम पहचाने गए नुकसान को कम करने के लिए डेटा को संशोधित या मॉडल को पुनः प्रशिक्षित कर सकते हैं?
|
|
|
|
[AI Fairness चेकलिस्ट्स](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) जैसे संसाधनों का अन्वेषण करें और अधिक जानें।
|
|
|
|
#### 2.9 गलत प्रस्तुति
|
|
|
|
[डेटा की गलत प्रस्तुति](https://www.sciencedirect.com/topics/computer-science/misrepresentation) यह पूछने के बारे में है कि क्या हम ईमानदारी से रिपोर्ट किए गए डेटा से अंतर्दृष्टि को एक वांछित कथा का समर्थन करने के लिए भ्रामक तरीके से प्रस्तुत कर रहे हैं।
|
|
|
|
यहां विचार करने वाले प्रश्न हैं:
|
|
* क्या हम अधूरे या गलत डेटा की रिपोर्ट कर रहे हैं?
|
|
* क्या हम डेटा को इस तरह से विज़ुअलाइज़ कर रहे हैं जो भ्रामक निष्कर्षों की ओर ले जाता है?
|
|
* क्या हम परिणामों में हेरफेर करने के लिए चयनात्मक सांख्यिकीय तकनीकों का उपयोग कर रहे हैं?
|
|
* क्या वैकल्पिक व्याख्याएं हैं जो एक अलग निष्कर्ष प्रदान कर सकती हैं?
|
|
|
|
#### 2.10 स्वतंत्र विकल्प
|
|
[स्वतंत्र विकल्प का भ्रम](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) तब होता है जब सिस्टम "चॉइस आर्किटेक्चर" निर्णय लेने वाले एल्गोरिदम का उपयोग करके लोगों को एक पसंदीदा परिणाम की ओर प्रेरित करते हैं, जबकि उन्हें विकल्प और नियंत्रण देने का आभास देते हैं। ये [डार्क पैटर्न्स](https://www.darkpatterns.org/) उपयोगकर्ताओं को सामाजिक और आर्थिक नुकसान पहुंचा सकते हैं। क्योंकि उपयोगकर्ता के निर्णय व्यवहार प्रोफाइल को प्रभावित करते हैं, ये क्रियाएं संभावित रूप से भविष्य के विकल्पों को बढ़ा सकती हैं या उनके प्रभाव को बढ़ा सकती हैं।
|
|
|
|
यहां विचार करने वाले प्रश्न हैं:
|
|
* क्या उपयोगकर्ता ने उस विकल्प को चुनने के परिणामों को समझा?
|
|
* क्या उपयोगकर्ता (वैकल्पिक) विकल्पों और उनके फायदे और नुकसान से अवगत था?
|
|
* क्या उपयोगकर्ता बाद में एक स्वचालित या प्रभावित विकल्प को उलट सकता है?
|
|
|
|
### 3. केस स्टडीज
|
|
|
|
इन नैतिक चुनौतियों को वास्तविक दुनिया के संदर्भों में समझने के लिए, उन केस स्टडीज को देखना उपयोगी होता है जो व्यक्तियों और समाज पर संभावित नुकसान और परिणामों को उजागर करते हैं, जब इन नैतिक उल्लंघनों को नजरअंदाज किया जाता है।
|
|
|
|
यहां कुछ उदाहरण दिए गए हैं:
|
|
|
|
| नैतिक चुनौती | केस स्टडी |
|
|
|--- |--- |
|
|
| **सूचित सहमति** | 1972 - [टस्केगी सिफलिस अध्ययन](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - अफ्रीकी अमेरिकी पुरुषों को अध्ययन में भाग लेने के लिए मुफ्त चिकित्सा देखभाल का वादा किया गया था, _लेकिन शोधकर्ताओं ने उन्हें उनके निदान या उपचार की उपलब्धता के बारे में सूचित नहीं किया।_ कई प्रतिभागियों की मृत्यु हो गई और उनके साथी या बच्चे प्रभावित हुए; अध्ययन 40 वर्षों तक चला। |
|
|
| **डेटा गोपनीयता** | 2007 - [नेटफ्लिक्स डेटा पुरस्कार](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) ने शोधकर्ताओं को _50K ग्राहकों की 10M गुमनाम मूवी रेटिंग्स_ प्रदान कीं ताकि सिफारिश एल्गोरिदम में सुधार हो सके। हालांकि, शोधकर्ता बाहरी डेटासेट्स (जैसे IMDb टिप्पणियां) में व्यक्तिगत रूप से पहचान योग्य डेटा के साथ गुमनाम डेटा को सहसंबंधित करने में सक्षम थे - प्रभावी रूप से कुछ नेटफ्लिक्स ग्राहकों को "डी-गुमनाम" कर दिया।|
|
|
| **संग्रह पूर्वाग्रह** | 2013 - बोस्टन शहर ने [स्ट्रीट बंप](https://www.boston.gov/transportation/street-bump) विकसित किया, एक ऐप जिसने नागरिकों को गड्ढों की रिपोर्ट करने दी, जिससे शहर को बेहतर सड़क डेटा मिला। हालांकि, [कम आय वाले समूहों के लोगों के पास कारों और फोन तक कम पहुंच थी](https://hbr.org/2013/04/the-hidden-biases-in-big-data), जिससे उनके सड़क मुद्दे इस ऐप में अदृश्य हो गए। डेवलपर्स ने निष्पक्षता के लिए _समान पहुंच और डिजिटल विभाजन_ मुद्दों पर अकादमिकों के साथ काम किया। |
|
|
| **एल्गोरिदम निष्पक्षता** | 2018 - एमआईटी [जेंडर शेड्स अध्ययन](http://gendershades.org/overview.html) ने जेंडर वर्गीकरण एआई उत्पादों की सटीकता का मूल्यांकन किया, महिलाओं और रंग के लोगों के लिए सटीकता में अंतर को उजागर किया। एक [2019 एप्पल कार्ड](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) ने महिलाओं को पुरुषों की तुलना में कम क्रेडिट की पेशकश की। दोनों ने सामाजिक-आर्थिक नुकसान की ओर ले जाने वाले एल्गोरिदम पूर्वाग्रह के मुद्दों को दर्शाया।|
|
|
| **डेटा की गलत प्रस्तुति** | 2020 - [जॉर्जिया डिपार्टमेंट ऑफ पब्लिक हेल्थ ने COVID-19 चार्ट जारी किए](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) जो नागरिकों को पुष्टि किए गए मामलों में रुझानों के बारे में गुमराह करते हुए प्रतीत हुए, जिसमें x-अक्ष पर गैर-कालानुक्रमिक क्रम था। यह विज़ुअलाइज़ेशन ट्रिक्स के माध्यम से गलत प्रस्तुति को दर्शाता है। |
|
|
| **स्वतंत्र विकल्प का भ्रम** | 2020 - लर्निंग ऐप [ABCmouse ने FTC शिकायत को निपटाने के लिए $10M का भुगतान किया](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) जहां माता-पिता को ऐसी सदस्यताओं के लिए भुगतान करने के लिए फंसा दिया गया जिसे वे रद्द नहीं कर सकते थे। यह चॉइस आर्किटेक्चर में डार्क पैटर्न्स को दर्शाता है, जहां उपयोगकर्ताओं को संभावित हानिकारक विकल्पों की ओर प्रेरित किया गया। |
|
|
| **डेटा गोपनीयता और उपयोगकर्ता अधिकार** | 2021 - फेसबुक [डेटा उल्लंघन](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) ने 530M उपयोगकर्ताओं का डेटा उजागर किया, जिसके परिणामस्वरूप FTC को $5B का निपटान करना पड़ा। हालांकि, इसने उपयोगकर्ताओं को उल्लंघन के बारे में सूचित करने से इनकार कर दिया, जिससे डेटा पारदर्शिता और पहुंच के आसपास उपयोगकर्ता अधिकारों का उल्लंघन हुआ। |
|
|
|
|
अधिक केस स्टडीज का अन्वेषण करना चाहते हैं? इन संसाधनों को देखें:
|
|
* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - विभिन्न उद्योगों में नैतिक दुविधाएं।
|
|
* [डेटा साइंस एथिक्स कोर्स](https://www.coursera.org/learn/data-science-ethics#syllabus) - प्रमुख केस स्टडीज का अन्वेषण।
|
|
* [जहां चीजें गलत हुईं](https://deon.drivendata.org/examples/) - डिऑन चेकलिस्ट के साथ उदाहरण।
|
|
|
|
> 🚨 उन केस स्टडीज के बारे में सोचें जो आपने देखी हैं - क्या आपने अपने जीवन में इसी तरह की नैतिक चुनौती का अनुभव किया है या उससे प्रभावित हुए हैं? क्या आप एक और केस स्टडी के बारे में सोच सकते हैं जो इस खंड में चर्चा की गई नैतिक चुनौतियों में से एक को दर्शाता है?
|
|
|
|
## व्यावहारिक नैतिकता
|
|
|
|
हमने नैतिकता की अवधारणाओं, चुनौतियों और वास्तविक दुनिया के संदर्भों में केस स्टडीज के बारे में बात की। लेकिन हम अपने प्रोजेक्ट्स में नैतिक सिद्धांतों और प्रथाओं को _लागू_ करना कैसे शुरू करें? और बेहतर शासन के लिए इन प्रथाओं को _संचालित_ कैसे करें? आइए कुछ वास्तविक दुनिया के समाधानों का अन्वेषण करें:
|
|
|
|
### 1. पेशेवर कोड
|
|
|
|
पेशेवर कोड संगठनों को अपने नैतिक सिद्धांतों और मिशन स्टेटमेंट का समर्थन करने के लिए सदस्यों को "प्रेरित" करने का एक विकल्प प्रदान करते हैं। कोड पेशेवर व्यवहार के लिए _नैतिक दिशानिर्देश_ हैं, जो कर्मचारियों या सदस्यों को निर्णय लेने में मदद करते हैं जो उनके संगठन के सिद्धांतों के साथ मेल खाते हैं। ये केवल सदस्यों की स्वैच्छिक अनुपालन पर निर्भर होते हैं; हालांकि, कई संगठन सदस्यों से अनुपालन को प्रेरित करने के लिए अतिरिक्त पुरस्कार और दंड प्रदान करते हैं।
|
|
|
|
उदाहरण:
|
|
* [ऑक्सफोर्ड म्यूनिख](http://www.code-of-ethics.org/code-of-conduct/) कोड ऑफ एथिक्स
|
|
* [डेटा साइंस एसोसिएशन](http://datascienceassn.org/code-of-conduct.html) आचार संहिता (2013 में बनाया गया)
|
|
* [ACM कोड ऑफ एथिक्स एंड प्रोफेशनल कंडक्ट](https://www.acm.org/code-of-ethics) (1993 से)
|
|
|
|
> 🚨 क्या आप किसी पेशेवर इंजीनियरिंग या डेटा साइंस संगठन के सदस्य हैं? उनके साइट का अन्वेषण करें और देखें कि क्या वे एक पेशेवर नैतिकता कोड को परिभाषित करते हैं। यह उनके नैतिक सिद्धांतों के बारे में क्या कहता है? वे सदस्यों को कोड का पालन करने के लिए कैसे "प्रेरित" कर रहे हैं?
|
|
|
|
### 2. नैतिकता चेकलिस्ट्स
|
|
|
|
जबकि पेशेवर कोड चिकित्सकों से अपेक्षित _नैतिक व्यवहार_ को परिभाषित करते हैं, वे [प्रवर्तन में ज्ञात सीमाएं](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) रखते हैं, विशेष रूप से बड़े पैमाने पर प्रोजेक्ट्स में। इसके बजाय, कई डेटा साइंस विशेषज्ञ [चेकलिस्ट्स की वकालत करते हैं](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), जो **सिद्धांतों को प्रथाओं से जोड़ सकते हैं** अधिक निर्णायक और क्रियाशील तरीकों से।
|
|
|
|
चेकलिस्ट्स प्रश्नों को "हां/नहीं" कार्यों में परिवर्तित करते हैं जिन्हें संचालित किया जा सकता है, जिससे उन्हें मानक उत्पाद रिलीज़ वर्कफ़्लो का हिस्सा बनाया जा सकता है।
|
|
|
|
उदाहरण:
|
|
* [डिऑन](https://deon.drivendata.org/) - [उद्योग सिफारिशों](https://deon.drivendata.org/#checklist-citations) से बनाया गया एक सामान्य-उद्देश्य डेटा नैतिकता चेकलिस्ट, जिसमें आसान एकीकरण के लिए एक कमांड-लाइन टूल है।
|
|
* [गोपनीयता ऑडिट चेकलिस्ट](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - कानूनी और सामाजिक जोखिम दृष्टिकोण से सूचना प्रबंधन प्रथाओं के लिए सामान्य मार्गदर्शन प्रदान करता है।
|
|
* [एआई निष्पक्षता चेकलिस्ट](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - एआई विकास चक्रों में निष्पक्षता जांच को अपनाने और एकीकृत करने के लिए एआई चिकित्सकों द्वारा बनाया गया।
|
|
* [डेटा और एआई में नैतिकता के लिए 22 प्रश्न](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - डिजाइन, कार्यान्वयन, और संगठनात्मक संदर्भों में नैतिक मुद्दों की प्रारंभिक खोज के लिए संरचित एक अधिक खुला ढांचा।
|
|
|
|
### 3. नैतिकता नियम
|
|
|
|
नैतिकता साझा मूल्यों को परिभाषित करने और _स्वेच्छा से_ सही काम करने के बारे में है। **अनुपालन** उन कानूनों का पालन करने के बारे में है जो परिभाषित किए गए हैं। **शासन** व्यापक रूप से उन सभी तरीकों को कवर करता है जिनमें संगठन नैतिक सिद्धांतों को लागू करने और स्थापित कानूनों का पालन करने के लिए काम करते हैं।
|
|
|
|
आज, संगठनों के भीतर शासन दो रूप लेता है। पहला, यह **नैतिक एआई** सिद्धांतों को परिभाषित करने और संगठन में सभी एआई-संबंधित परियोजनाओं में अपनाने को संचालित करने के लिए प्रथाओं को स्थापित करने के बारे में है। दूसरा, यह उन सभी सरकारी-निर्दिष्ट **डेटा संरक्षण नियमों** का पालन करने के बारे में है जिन क्षेत्रों में यह संचालित होता है।
|
|
|
|
डेटा संरक्षण और गोपनीयता नियमों के उदाहरण:
|
|
|
|
* `1974`, [यूएस प्राइवेसी एक्ट](https://www.justice.gov/opcl/privacy-act-1974) - _संघीय सरकार_ द्वारा व्यक्तिगत जानकारी के संग्रह, उपयोग और प्रकटीकरण को नियंत्रित करता है।
|
|
* `1996`, [यूएस हेल्थ इंश्योरेंस पोर्टेबिलिटी एंड अकाउंटेबिलिटी एक्ट (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - व्यक्तिगत स्वास्थ्य डेटा की सुरक्षा करता है।
|
|
* `1998`, [यूएस चिल्ड्रन्स ऑनलाइन प्राइवेसी प्रोटेक्शन एक्ट (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - 13 वर्ष से कम उम्र के बच्चों के डेटा गोपनीयता की रक्षा करता है।
|
|
* `2018`, [जनरल डेटा प्रोटेक्शन रेगुलेशन (GDPR)](https://gdpr-info.eu/) - उपयोगकर्ता अधिकार, डेटा संरक्षण और गोपनीयता प्रदान करता है।
|
|
* `2018`, [कैलिफोर्निया कंज्यूमर प्राइवेसी एक्ट (CCPA)](https://www.oag.ca.gov/privacy/ccpa) उपभोक्ताओं को उनके (व्यक्तिगत) डेटा पर अधिक _अधिकार_ देता है।
|
|
* `2021`, चीन का [पर्सनल इंफॉर्मेशन प्रोटेक्शन लॉ](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) हाल ही में पारित हुआ, जो दुनिया में सबसे मजबूत ऑनलाइन डेटा गोपनीयता नियमों में से एक है।
|
|
|
|
> 🚨 यूरोपीय संघ द्वारा परिभाषित GDPR (जनरल डेटा प्रोटेक्शन रेगुलेशन) आज सबसे प्रभावशाली डेटा गोपनीयता नियमों में से एक है। क्या आप जानते हैं कि यह [8 उपयोगकर्ता अधिकारों](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) को भी परिभाषित करता है ताकि नागरिकों की डिजिटल गोपनीयता और व्यक्तिगत डेटा की रक्षा की जा सके? जानें कि ये क्या हैं और क्यों महत्वपूर्ण हैं।
|
|
|
|
### 4. नैतिकता संस्कृति
|
|
|
|
ध्यान दें कि _अनुपालन_ (कानून के "शब्द" को पूरा करने के लिए पर्याप्त करना) और [सिस्टमेटिक मुद्दों](https://www.coursera.org/learn/data-science-ethics/home/week/4) (जैसे जड़ता, सूचना विषमता, और वितरणीय अन्याय) को संबोधित करने के बीच एक अमूर्त अंतर बना रहता है, जो एआई के हथियारकरण को तेज कर सकता है।
|
|
|
|
उत्तरार्द्ध के लिए [नैतिकता संस्कृतियों को परिभाषित करने के लिए सहयोगात्मक दृष्टिकोण](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) की आवश्यकता होती है जो उद्योग में _संगठनों_ के बीच भावनात्मक संबंध और सुसंगत साझा मूल्य बनाते हैं। यह संगठनों में अधिक [औपचारिक डेटा नैतिकता संस्कृतियों](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) के लिए कहता है - जिससे _कोई भी_ [एंडन कॉर्ड खींच सके](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (प्रक्रिया में जल्दी नैतिक चिंताओं को उठाने के लिए) और _नैतिक आकलन_ (जैसे, भर्ती में) एआई परियोजनाओं में टीम गठन का एक मुख्य मानदंड बना सके।
|
|
|
|
---
|
|
## [पोस्ट-लेक्चर क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
|
|
## समीक्षा और स्व-अध्ययन
|
|
|
|
पाठ्यक्रम और पुस्तकें मुख्य नैतिकता अवधारणाओं और चुनौतियों को समझने में मदद करती हैं, जबकि केस स्टडीज और उपकरण वास्तविक दुनिया के संदर्भों में व्यावहारिक नैतिकता प्रथाओं में मदद करते हैं। यहां शुरू करने के लिए कुछ संसाधन दिए गए हैं:
|
|
|
|
* [शुरुआती के लिए मशीन लर्निंग](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/
|
|
* [जिम्मेदार AI के सिद्धांत](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn से मुफ्त लर्निंग पाथ।
|
|
* [एथिक्स और डेटा साइंस](https://resources.oreilly.com/examples/0636920203964) - ओ'रेली ईबुक (एम. लुकाइड्स, एच. मेसन आदि)
|
|
* [डेटा साइंस एथिक्स](https://www.coursera.org/learn/data-science-ethics#syllabus) - मिशिगन विश्वविद्यालय का ऑनलाइन कोर्स।
|
|
* [एथिक्स अनरैप्ड](https://ethicsunwrapped.utexas.edu/case-studies) - टेक्सास विश्वविद्यालय से केस स्टडीज।
|
|
|
|
# असाइनमेंट
|
|
|
|
[डेटा एथिक्स केस स्टडी लिखें](assignment.md)
|
|
|
|
**अस्वीकरण**:
|
|
यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को आधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं। |