# पोस्टस्क्रिप्ट: जिम्मेवार AI ड्यासबोर्ड कम्पोनेन्टहरू प्रयोग गरेर मेसिन लर्निङ मोडेल डिबगिङ ## [प्री-लेक्चर क्विज](https://ff-quizzes.netlify.app/en/ml/) ## परिचय मेसिन लर्निङले हाम्रो दैनिक जीवनलाई प्रभाव पार्छ। AI स्वास्थ्य सेवा, वित्त, शिक्षा, र रोजगारी जस्ता क्षेत्रहरूमा प्रवेश गर्दैछ, जसले व्यक्तिगत रूपमा हामीलाई र हाम्रो समाजलाई असर गर्ने महत्त्वपूर्ण प्रणालीहरूमा भूमिका खेल्छ। उदाहरणका लागि, स्वास्थ्य सेवा निदान वा ठगी पत्ता लगाउने जस्ता दैनिक निर्णय प्रक्रियाहरूमा प्रणालीहरू र मोडेलहरू संलग्न छन्। यसका परिणामस्वरूप, AI को प्रगतिहरू र यसको तीव्र अपनत्वसँगै समाजका अपेक्षाहरू विकसित हुँदैछन् र सरकारहरूले AI समाधानहरूलाई नियमन गर्न थालेका छन्। त्यसैले, यी मोडेलहरूलाई सबैका लागि निष्पक्ष, भरपर्दो, समावेशी, पारदर्शी, र उत्तरदायी परिणामहरू प्रदान गर्न विश्लेषण गर्नु महत्त्वपूर्ण छ। यस पाठ्यक्रममा, हामी व्यावहारिक उपकरणहरूको अध्ययन गर्नेछौं जसले मोडेलमा जिम्मेवार AI सम्बन्धी समस्या छ कि छैन भनेर मूल्याङ्कन गर्न मद्दत गर्दछ। परम्परागत मेसिन लर्निङ डिबगिङ प्रविधिहरू प्रायः मात्रात्मक गणनाहरूमा आधारित हुन्छन्, जस्तै समग्र सटीकता वा औसत त्रुटि हानि। कल्पना गर्नुहोस् कि तपाईंले मोडेल निर्माण गर्न प्रयोग गरेको डाटामा जाति, लिङ्ग, राजनीतिक विचार, धर्म जस्ता जनसांख्यिकीय समूहहरू अनुपस्थित छन् वा असमान रूपमा प्रतिनिधित्व गरिएको छ। यदि मोडेलको नतिजा कुनै जनसांख्यिकीय समूहलाई प्राथमिकता दिन व्याख्या गरिन्छ भने के हुन्छ? यसले संवेदनशील विशेषता समूहहरूको अत्यधिक वा न्यून प्रतिनिधित्वलाई परिचय गराउन सक्छ, जसले मोडेलमा निष्पक्षता, समावेशिता, वा भरपर्दो समस्याहरू उत्पन्न गर्न सक्छ। अर्को चुनौती भनेको मेसिन लर्निङ मोडेलहरू "ब्ल्याक बक्स" मानिन्छन्, जसले मोडेलको भविष्यवाणीलाई के चलाउँछ भन्ने कुरा बुझ्न र व्याख्या गर्न कठिन बनाउँछ। जब डाटा वैज्ञानिकहरू र AI विकासकर्ताहरूले मोडेलको निष्पक्षता वा विश्वासयोग्यता मूल्याङ्कन गर्न पर्याप्त उपकरणहरू नभएको अवस्थामा यी सबै चुनौतीहरू देखा पर्छन्। यस पाठमा, तपाईं आफ्नो मोडेलहरू डिबग गर्न निम्न विधिहरू सिक्नुहुनेछ: - **त्रुटि विश्लेषण**: डाटा वितरणको कुन भागमा मोडेलको उच्च त्रुटि दर छ भनेर पहिचान गर्नुहोस्। - **मोडेल अवलोकन**: विभिन्न डाटा समूहहरूमा तुलनात्मक विश्लेषण गरेर मोडेलको प्रदर्शन मेट्रिक्समा असमानता पत्ता लगाउनुहोस्। - **डाटा विश्लेषण**: डाटाको अत्यधिक वा न्यून प्रतिनिधित्व कहाँ छ भनेर अनुसन्धान गर्नुहोस्, जसले मोडेललाई एक डाटा जनसांख्यिकीयलाई अर्कोभन्दा बढी प्राथमिकता दिन प्रेरित गर्न सक्छ। - **विशेषता महत्त्व**: मोडेलको भविष्यवाणीलाई विश्वव्यापी वा स्थानीय स्तरमा कुन विशेषताहरूले चलाइरहेका छन् भनेर बुझ्नुहोस्। ## पूर्वशर्त पूर्वशर्तको रूपमा, कृपया [जिम्मेवार AI उपकरणहरूका लागि समीक्षा](https://www.microsoft.com/ai/ai-lab-responsible-ai-dashboard) गर्नुहोस्। > ![जिम्मेवार AI उपकरणहरूमा GIF](../../../../9-Real-World/2-Debugging-ML-Models/images/rai-overview.gif) ## त्रुटि विश्लेषण परम्परागत मोडेल प्रदर्शन मेट्रिक्स, जस्तै सटीकता मापन, प्रायः सही र गलत भविष्यवाणीहरूको गणनामा आधारित हुन्छ। उदाहरणका लागि, यदि मोडेल ८९% समय सटीक छ र त्रुटि हानि ०.००१ छ भने यो राम्रो प्रदर्शन मान्न सकिन्छ। तर त्रुटिहरू डाटाको आधारभूत सेटमा समान रूपमा वितरण भएका हुँदैनन्। तपाईंले ८९% सटीकता स्कोर प्राप्त गर्न सक्नुहुन्छ तर पत्ता लगाउन सक्नुहुन्छ कि डाटाको केही क्षेत्रहरूमा मोडेल ४२% समय असफल भइरहेको छ। यी असफलता ढाँचाहरूले निष्पक्षता वा भरपर्दो समस्याहरू उत्पन्न गर्न सक्छ। मोडेलले राम्रो प्रदर्शन गरिरहेको क्षेत्रहरू र खराब प्रदर्शन गरिरहेको क्षेत्रहरू बुझ्न महत्त्वपूर्ण छ। डाटाको ती क्षेत्रहरू जहाँ मोडेलको उच्च त्रुटि दर छ, महत्त्वपूर्ण जनसांख्यिकीय समूह हुन सक्छ। ![मोडेल त्रुटिहरू विश्लेषण र डिबग गर्नुहोस्](../../../../9-Real-World/2-Debugging-ML-Models/images/ea-error-distribution.png) RAI ड्यासबोर्डको त्रुटि विश्लेषण कम्पोनेन्टले विभिन्न समूहहरूमा मोडेल असफलता कसरी वितरण भएको छ भनेर ट्री भिजुअलाइजेसनमार्फत देखाउँछ। यो डाटासेटमा उच्च त्रुटि दर भएका विशेषताहरू वा क्षेत्रहरू पहिचान गर्न उपयोगी छ। मोडेलको अधिकांश त्रुटिहरू कहाँबाट आइरहेका छन् भनेर हेरेर, तपाईंले समस्याको जड पत्ता लगाउन सुरु गर्न सक्नुहुन्छ। तपाईं डाटाको समूहहरू सिर्जना गरेर विश्लेषण गर्न सक्नुहुन्छ। यी समूहहरूले डिबगिङ प्रक्रियामा मद्दत गर्छन् कि किन मोडेलको प्रदर्शन एक समूहमा राम्रो छ तर अर्कोमा त्रुटिपूर्ण छ। ![त्रुटि विश्लेषण](../../../../9-Real-World/2-Debugging-ML-Models/images/ea-error-cohort.png) ट्री म्यापमा गाढा रातो रंगको छायाँले समस्या क्षेत्रहरू छिटो पत्ता लगाउन मद्दत गर्छ। उदाहरणका लागि, ट्री नोडमा गाढा रातो रंगको छायाँ छ भने, त्रुटि दर उच्च छ। हीट म्याप अर्को भिजुअलाइजेसन कार्यक्षमता हो, जसले प्रयोगकर्ताहरूलाई एक वा दुई विशेषताहरू प्रयोग गरेर त्रुटि दर अनुसन्धान गर्न मद्दत गर्छ, जसले सम्पूर्ण डाटासेट वा समूहहरूमा मोडेल त्रुटिहरूको योगदानकर्ता पत्ता लगाउन मद्दत गर्छ। ![त्रुटि विश्लेषण हीटम्याप](../../../../9-Real-World/2-Debugging-ML-Models/images/ea-heatmap.png) त्रुटि विश्लेषण प्रयोग गर्नुहोस् जब तपाईंलाई चाहिन्छ: * मोडेल असफलता कसरी डाटासेट र विभिन्न इनपुट तथा विशेषता आयामहरूमा वितरण भएको छ भनेर गहिरो समझ प्राप्त गर्नुहोस्। * समग्र प्रदर्शन मेट्रिक्सलाई तोडेर त्रुटिपूर्ण समूहहरू स्वतः पत्ता लगाउनुहोस् ताकि लक्षित समाधान कदमहरूलाई सूचित गर्न सकियोस्। ## मोडेल अवलोकन मेसिन लर्निङ मोडेलको प्रदर्शन मूल्याङ्कन गर्न यसको व्यवहारको समग्र समझ प्राप्त गर्नु आवश्यक छ। यो त्रुटि दर, सटीकता, रिकल, प्रिसिजन, वा MAE (मीन एब्सोल्युट एरर) जस्ता एकभन्दा बढी मेट्रिक्सको समीक्षा गरेर प्राप्त गर्न सकिन्छ। एक प्रदर्शन मेट्रिक राम्रो देखिन सक्छ, तर अर्को मेट्रिकमा असमानता देखिन सक्छ। साथै, सम्पूर्ण डाटासेट वा समूहहरूमा मेट्रिक्सको तुलनाले मोडेल कहाँ राम्रो प्रदर्शन गरिरहेको छ वा छैन भन्ने कुरा उजागर गर्न मद्दत गर्छ। यो विशेष गरी संवेदनशील र असंवेदनशील विशेषताहरू (जस्तै, बिरामीको जाति, लिङ्ग, वा उमेर) बीच मोडेलको प्रदर्शन हेर्न महत्त्वपूर्ण छ ताकि मोडेलले सम्भावित अन्याय गरेको छ कि छैन भनेर पत्ता लगाउन सकियोस्। उदाहरणका लागि, संवेदनशील विशेषताहरू भएको समूहमा मोडेल बढी त्रुटिपूर्ण छ भने, यसले मोडेलमा सम्भावित अन्याय देखाउन सक्छ। RAI ड्यासबोर्डको मोडेल अवलोकन कम्पोनेन्टले न केवल समूहमा डाटा प्रतिनिधित्वको प्रदर्शन मेट्रिक्स विश्लेषण गर्न मद्दत गर्छ, तर यसले प्रयोगकर्ताहरूलाई विभिन्न समूहहरूमा मोडेलको व्यवहार तुलना गर्ने क्षमता प्रदान गर्दछ। ![डाटासेट समूहहरू - RAI ड्यासबोर्डमा मोडेल अवलोकन](../../../../9-Real-World/2-Debugging-ML-Models/images/model-overview-dataset-cohorts.png) कम्पोनेन्टको विशेषता-आधारित विश्लेषण कार्यक्षमताले प्रयोगकर्ताहरूलाई विशेषताहरूको विशिष्ट समूहहरूमा डाटा उपसमूहहरू संकुचित गर्न अनुमति दिन्छ ताकि सूक्ष्म स्तरमा असमानता पहिचान गर्न सकियोस्। उदाहरणका लागि, ड्यासबोर्डमा प्रयोगकर्ताले चयन गरेको विशेषताका लागि समूहहरू स्वतः उत्पन्न गर्न बौद्धिकता छ (जस्तै, *"time_in_hospital < 3"* वा *"time_in_hospital >= 7"*)। यसले प्रयोगकर्तालाई ठूलो डाटा समूहबाट विशेषताहरू अलग गर्न सक्षम बनाउँछ ताकि यो मोडेलको त्रुटिपूर्ण परिणामहरूको प्रमुख प्रभावकारक हो कि होइन भनेर हेर्न सकियोस्। ![विशेषता समूहहरू - RAI ड्यासबोर्डमा मोडेल अवलोकन](../../../../9-Real-World/2-Debugging-ML-Models/images/model-overview-feature-cohorts.png) मोडेल अवलोकन कम्पोनेन्टले दुई प्रकारका असमानता मेट्रिक्सलाई समर्थन गर्दछ: **मोडेल प्रदर्शनमा असमानता**: यी मेट्रिक्सले प्रदर्शन मेट्रिक्सको चयन गरिएको मानहरूमा डाटा उपसमूहहरूमा असमानता (अन्तर) गणना गर्छ। केही उदाहरणहरू: * सटीकता दरमा असमानता * त्रुटि दरमा असमानता * प्रिसिजनमा असमानता * रिकलमा असमानता * मीन एब्सोल्युट एरर (MAE) मा असमानता **चयन दरमा असमानता**: यो मेट्रिकले उपसमूहहरूमा चयन दर (अनुकूल भविष्यवाणी) को भिन्नता समावेश गर्दछ। यसको उदाहरण भनेको ऋण स्वीकृति दरमा असमानता हो। चयन दरले प्रत्येक वर्गमा डाटा बिन्दुहरूको अंशलाई १ (बाइनरी वर्गीकरणमा) वा भविष्यवाणी मानहरूको वितरण (रेग्रेशनमा) को रूपमा वर्गीकृत गरिएको अर्थ गर्दछ। ## डाटा विश्लेषण > "यदि तपाईंले डाटालाई पर्याप्त यातना दिनुभयो भने, यसले कुनै पनि कुरा स्वीकार गर्नेछ" - रोनाल्ड कोस यो कथन अतिशयोक्तिपूर्ण लाग्न सक्छ, तर यो सत्य हो कि डाटालाई कुनै पनि निष्कर्ष समर्थन गर्न हेरफेर गर्न सकिन्छ। यस्तो हेरफेर कहिलेकाहीँ अनजानेमा पनि हुन सक्छ। हामी सबै मानिसहरूमा पूर्वाग्रह हुन्छ, र डाटामा पूर्वाग्रह परिचय गराउँदा हामीलाई सचेत रूपमा थाहा पाउन गाह्रो हुन्छ। AI र मेसिन लर्निङमा निष्पक्षता सुनिश्चित गर्नु जटिल चुनौती हो। डाटा परम्परागत मोडेल प्रदर्शन मेट्रिक्सको लागि ठूलो अन्धकार क्षेत्र हो। तपाईंले उच्च सटीकता स्कोर प्राप्त गर्न सक्नुहुन्छ, तर यसले डाटासेटमा अन्तर्निहित डाटा पूर्वाग्रहलाई प्रतिबिम्बित नगर्न सक्छ। उदाहरणका लागि, यदि कर्मचारीहरूको डाटासेटमा कम्पनीका कार्यकारी पदहरूमा महिलाहरूको २७% र पुरुषहरूको ७३% प्रतिनिधित्व छ भने, यस डाटामा प्रशिक्षित रोजगार विज्ञापन AI मोडेलले वरिष्ठ स्तरको रोजगार पदहरूको लागि प्रायः पुरुष दर्शकलाई लक्षित गर्न सक्छ। डाटामा यो असन्तुलनले मोडेलको भविष्यवाणीलाई एक लिङ्गलाई प्राथमिकता दिन प्रेरित गर्यो। यसले मोडेलमा लिङ्ग पूर्वाग्रह देखाउँछ, जसले निष्पक्षताको समस्या उजागर गर्छ। RAI ड्यासबोर्डको डाटा विश्लेषण कम्पोनेन्टले डाटासेटमा अत्यधिक र न्यून प्रतिनिधित्व भएका क्षेत्रहरू पहिचान गर्न मद्दत गर्छ। यसले प्रयोगकर्ताहरूलाई डाटा असन्तुलन वा विशिष्ट डाटा समूहको प्रतिनिधित्वको अभावबाट उत्पन्न त्रुटि र निष्पक्षता समस्याहरूको जड कारण पत्ता लगाउन मद्दत गर्छ। यसले प्रयोगकर्ताहरूलाई भविष्यवाणी र वास्तविक परिणामहरू, त्रुटि समूहहरू, र विशिष्ट विशेषताहरूको आधारमा डाटासेटहरू भिजुअलाइज गर्न सक्षम बनाउँछ। कहिलेकाहीँ न्यून प्रतिनिधित्व भएको डाटा समूह पत्ता लगाउँदा मोडेल राम्रोसँग सिकिरहेको छैन भन्ने कुरा पनि उजागर गर्न सक्छ, जसले उच्च त्रुटिहरू उत्पन्न गर्छ। डाटामा पूर्वाग्रह भएको मोडेल हुनु भनेको केवल निष्पक्षताको समस्या होइन, तर मोडेल समावेशी वा भरपर्दो छैन भन्ने कुरा पनि देखाउँछ। ![RAI ड्यासबोर्डमा डाटा विश्लेषण कम्पोनेन्ट](../../../../9-Real-World/2-Debugging-ML-Models/images/dataanalysis-cover.png) डाटा विश्लेषण प्रयोग गर्नुहोस् जब तपाईंलाई चाहिन्छ: * विभिन्न फिल्टरहरू चयन गरेर आफ्नो डाटासेटको तथ्याङ्क अन्वेषण गर्नुहोस् ताकि तपाईं आफ्नो डाटालाई विभिन्न आयामहरू (समूहहरू) मा विभाजन गर्न सक्नुहुन्छ। * विभिन्न समूहहरू र विशेषता समूहहरूमा आफ्नो डाटासेटको वितरण बुझ्नुहोस्। * निष्पक्षता, त्रुटि विश्लेषण, र कारण सम्बन्धी निष्कर्षहरू (अन्य ड्यासबोर्ड कम्पोनेन्टहरूबाट प्राप्त) तपाईंको डाटासेटको वितरणको परिणाम हो कि होइन भनेर निर्धारण गर्नुहोस्। * प्रतिनिधित्व समस्याहरू, लेबल शोर, विशेषता शोर, लेबल पूर्वाग्रह, र यस्तै कारकहरूबाट उत्पन्न त्रुटिहरूलाई कम गर्न थप डाटा सङ्कलन गर्न कुन क्षेत्रहरूमा ध्यान दिनुपर्ने हो भनेर निर्णय गर्नुहोस्। ## मोडेल व्याख्यात्मकता मेसिन लर्निङ मोडेलहरू प्रायः "ब्ल्याक बक्स" मानिन्छन्। मोडेलको भविष्यवाणीलाई चलाउने प्रमुख डाटा विशेषताहरू बुझ्न चुनौतीपूर्ण हुन सक्छ। मोडेलले किन कुनै निश्चित भविष्यवाणी गर्यो भन्ने पारदर्शिता प्रदान गर्नु महत्त्वपूर्ण छ। उदाहरणका लागि, यदि AI प्रणालीले मधुमेह रोगीलाई ३० दिनभन्दा कम समयमा अस्पतालमा पुनः भर्ना हुने जोखिममा रहेको भविष्यवाणी गर्छ भने, यसले आफ्नो भविष्यवाणीमा आधारित समर्थन डाटा प्रदान गर्न सक्षम हुनुपर्छ। समर्थन डाटा सूचकहरूले पारदर्शिता ल्याउँछ, जसले चिकित्सकहरू वा अस्पतालहरूलाई राम्रो निर्णय लिन मद्दत गर्छ। साथै, व्यक्तिगत बिरामीको लागि मोडेलले भविष्यवाणी किन गर्यो भन्ने व्याख्या गर्न सक्षम हुनु स्वास्थ्य नियमहरूको साथ उत्तरदायित्व सक्षम बनाउँछ। जब मेसिन लर्निङ मोडेलहरू मानिसहरूको जीवनलाई असर गर्ने तरिकामा प्रयोग गरिन्छ, मोडेलको व्यवहारलाई के चलाउँछ भन्ने कुरा बुझ्न र व्याख्या गर्न महत्त्वपूर्ण छ। मोडेल व्याख्यात्मकता र व्याख्या गर्न सक्ने क्षमता निम्न परिदृश्यहरूमा प्रश्नहरूको उत्तर दिन मद्दत गर्छ: * मोडेल डिबगिङ: मेरो मोडेलले यो गल्ती किन गर्यो? म आफ्नो मोडेललाई कसरी सुधार गर्न सक्छु? * मानव-AI सहयोग: म मोडेलको निर्णयलाई कसरी बुझ्न र विश्वास गर्न सक्छु? * नियामक अनुपालन: के मेरो मोडेलले कानुनी आवश्यकताहरू पूरा गर्छ? RAI ड्यासबोर्डको विशेषता महत्त्व कम्पोनेन्टले मोडेलले भविष्यवाणी कसरी गर्छ भन्ने व्यापक समझ प्राप्त गर्न र डिबग गर्न मद्दत गर्छ। यो मेसिन लर्निङ पेशेवरहरू र निर्णयकर्ताहरूका लागि उपयोगी उपकरण हो, जसले मोडेलको व्यवहारलाई चलाउने विशेषताहरूको प्रमाण देखाउन र व्याख्या गर्न नियामक अनुपालनका लागि मद्दत गर्छ। प्रयोगकर्ताहरूले विश्वव्यापी र स्थानीय व्याख्याहरू अन्वेषण गरेर मोडेलको भविष्यवाणीलाई चलाउने विशेषताहरूको मान्यता प्राप्त गर्न सक्छन्। विश्वव्यापी व्याख्याहरूले मोडेलको समग्र भविष्यवाणीलाई प्रभावित गर्ने शीर्ष विशेषताहरू सूचीबद्ध गर्छ। स्थानीय व्याख्याहरूले व्यक्तिगत केसको लागि मोडेलको भविष्यवाणीलाई चलाउने विशेषताहरू देखाउँछ। स्थानीय व्याख्याहरूको मूल्याङ्कन गर्ने क्षमता डिबगिङ वा अडिटिङको विशिष्ट केसमा पनि उपयोगी छ ताकि मोडेलले सटीक वा असटीक भविष्यवाणी किन गर्यो भन्ने कुरा राम्रोसँग बुझ्न र व्याख्या गर्न सकियोस्। ![RAI ड्यासबोर्डको विशेषता महत्त्व कम्पोनेन्ट](../../../../9-Real-World/2-Debugging-ML-Models/images/9-feature-importance.png) * विश्वव्यापी व्याख्याहरू: उदाहरणका लागि, मधुमेह अस्पताल पुनः भर्ना मोडेलको समग्र व्यवहारलाई कुन विशेषताहरूले प्रभावित गर्छन्? * स्थानीय व्याख्याहरू: उदाहरणका लागि, किन ६० वर्षभन्दा माथिका मधुमेह रोगीलाई पुनः भर्ना हुने वा ३० दिनभित्र अस्पतालमा पुनः भर्ना नहुने भविष्यवाणी गरियो? मोडेलको प्रदर्शनलाई विभिन्न समूहहरूमा जाँच गर्ने डिबगिङ प्रक्रियामा, विशेषता महत्त्वले समूहहरूमा विशेषताको प्रभावको स्तर देखाउँछ। यो मोडेलको त्रुटिपूर्ण भविष्यवाणीलाई चलाउने विशेषताको प्रभावको स्तर तुलना गर्दा असमानता उजागर गर्न मद्दत गर्छ। विशेषता महत्त्व कम्पोनेन्टले विशेषतामा भएका मानहरूले मोडेलको परिणामलाई सकारात्मक वा नकारात्मक रूपमा कसरी प्रभावित गर्यो भन्ने देखाउन सक्छ। उदाहरणका लागि, यदि मोडेलले असटीक भविष्यवाणी गर्यो भने, कम्पोनेन्टले भविष्यवाणीलाई चलाउने विशेषता वा विशेषता मानहरू पत्ता लगाउन र विश्लेषण गर्न सक्षम बनाउँछ। यो स्तरको विवरणले न केवल डिबगिङमा मद्दत गर्छ, तर अडिटिङ परिदृश्यहरूमा पारदर्शिता र उत्तरदायित्व प्रदान गर्छ। अन्ततः, कम्पोनेन्टले निष्पक्षता समस्याहरू पहिचान गर्न मद्दत गर्न सक्छ। उदाहरणका लागि, - **अधिक वा कम प्रतिनिधित्व**। विचार यो हो कि कुनै निश्चित समूहलाई कुनै निश्चित पेशामा देखिँदैन, र कुनै पनि सेवा वा कार्य जसले यसलाई निरन्तर प्रवर्द्धन गरिरहन्छ, त्यो हानिकारक योगदान गरिरहेको छ। ### Azure RAI ड्यासबोर्ड [Azure RAI ड्यासबोर्ड](https://learn.microsoft.com/en-us/azure/machine-learning/concept-responsible-ai-dashboard?WT.mc_id=aiml-90525-ruyakubu) खुला स्रोत उपकरणहरूमा आधारित छ, जुन प्रमुख शैक्षिक संस्थाहरू र संगठनहरूले विकास गरेका छन्। यसले डेटा वैज्ञानिकहरू र AI विकासकर्ताहरूलाई मोडेलको व्यवहार राम्रोसँग बुझ्न, AI मोडेलहरूबाट उत्पन्न हुने अवांछनीय समस्याहरू पत्ता लगाउन र समाधान गर्न सहयोग पुर्‍याउँछ। - RAI ड्यासबोर्डका विभिन्न कम्पोनेन्टहरू कसरी प्रयोग गर्ने भनेर जान्न [डक्स](https://learn.microsoft.com/en-us/azure/machine-learning/how-to-responsible-ai-dashboard?WT.mc_id=aiml-90525-ruyakubu) हेर्नुहोस्। - Azure Machine Learning मा जिम्मेवार AI परिदृश्यहरू डिबग गर्नका लागि केही RAI ड्यासबोर्ड [नमूना नोटबुकहरू](https://github.com/Azure/RAI-vNext-Preview/tree/main/examples/notebooks) हेर्नुहोस्। --- ## 🚀 चुनौती पहिले नै सांख्यिकीय वा डेटा पूर्वाग्रहहरू रोक्नका लागि हामीले निम्न गर्नुपर्छ: - प्रणालीमा काम गर्ने व्यक्तिहरूको पृष्ठभूमि र दृष्टिकोणमा विविधता सुनिश्चित गर्नु - हाम्रो समाजको विविधतालाई प्रतिबिम्बित गर्ने डेटासेटहरूमा लगानी गर्नु - पूर्वाग्रह देखा परेमा पत्ता लगाउने र सुधार गर्ने राम्रो विधिहरू विकास गर्नु मोडेल निर्माण र प्रयोगमा अन्याय देखिने वास्तविक जीवनका परिदृश्यहरूबारे सोच्नुहोस्। अरू के विचार गर्नुपर्छ? ## [पोस्ट-व्याख्यान क्विज](https://ff-quizzes.netlify.app/en/ml/) ## समीक्षा र आत्म-अध्ययन यस पाठमा, तपाईंले मशीन लर्निङमा जिम्मेवार AI समावेश गर्ने केही व्यावहारिक उपकरणहरू सिक्नुभएको छ। यस कार्यशालालाई हेर्नुहोस् र विषयहरूमा अझ गहिरो जानकारी लिनुहोस्: - जिम्मेवार AI ड्यासबोर्ड: व्यवहारमा RAI सञ्चालनका लागि एक-स्टप समाधान, Besmira Nushi र Mehrnoosh Sameki द्वारा [![जिम्मेवार AI ड्यासबोर्ड: व्यवहारमा RAI सञ्चालनका लागि एक-स्टप समाधान](https://img.youtube.com/vi/f1oaDNl3djg/0.jpg)](https://www.youtube.com/watch?v=f1oaDNl3djg "जिम्मेवार AI ड्यासबोर्ड: व्यवहारमा RAI सञ्चालनका लागि एक-स्टप समाधान") > 🎥 माथिको छवि क्लिक गर्नुहोस् भिडियोका लागि: जिम्मेवार AI ड्यासबोर्ड: व्यवहारमा RAI सञ्चालनका लागि एक-स्टप समाधान, Besmira Nushi र Mehrnoosh Sameki द्वारा जिम्मेवार AI र विश्वसनीय मोडेल निर्माण गर्ने तरिकाहरू सिक्न निम्न सामग्रीहरू सन्दर्भ गर्नुहोस्: - ML मोडेलहरू डिबग गर्नका लागि Microsoft को RAI ड्यासबोर्ड उपकरणहरू: [जिम्मेवार AI उपकरण स्रोतहरू](https://aka.ms/rai-dashboard) - जिम्मेवार AI टूलकिट अन्वेषण गर्नुहोस्: [Github](https://github.com/microsoft/responsible-ai-toolbox) - Microsoft को RAI स्रोत केन्द्र: [जिम्मेवार AI स्रोतहरू – Microsoft AI](https://www.microsoft.com/ai/responsible-ai-resources?activetab=pivot1%3aprimaryr4) - Microsoft को FATE अनुसन्धान समूह: [FATE: निष्पक्षता, उत्तरदायित्व, पारदर्शिता, र AI मा नैतिकता - Microsoft Research](https://www.microsoft.com/research/theme/fate/) ## असाइनमेन्ट [RAI ड्यासबोर्ड अन्वेषण गर्नुहोस्](assignment.md) --- **अस्वीकरण**: यो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको छ। हामी शुद्धताको लागि प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादहरूमा त्रुटि वा अशुद्धता हुन सक्छ। यसको मूल भाषा मा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्वपूर्ण जानकारीको लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार हुने छैनौं।