You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Data-Science-For-Beginners/translations/hi/1-Introduction/04-stats-and-probability/README.md

217 lines
42 KiB

This file contains ambiguous Unicode characters!

This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.

<!--
CO_OP_TRANSLATOR_METADATA:
{
"original_hash": "b706a07cfa87ba091cbb91e0aa775600",
"translation_date": "2025-08-24T21:43:02+00:00",
"source_file": "1-Introduction/04-stats-and-probability/README.md",
"language_code": "hi"
}
-->
# सांख्यिकी और संभाव्यता का संक्षिप्त परिचय
|![ स्केच नोट [(@sketchthedocs)](https://sketchthedocs.dev) द्वारा ](../../sketchnotes/04-Statistics-Probability.png)|
|:---:|
| सांख्यिकी और संभाव्यता - _[@nitya](https://twitter.com/nitya) द्वारा स्केच नोट_ |
सांख्यिकी और संभाव्यता सिद्धांत गणित के दो अत्यधिक संबंधित क्षेत्र हैं जो डेटा विज्ञान के लिए बहुत प्रासंगिक हैं। गणित का गहन ज्ञान न होने पर भी डेटा के साथ काम करना संभव है, लेकिन कुछ बुनियादी अवधारणाओं को जानना हमेशा बेहतर होता है। यहां हम एक छोटा परिचय प्रस्तुत करेंगे जो आपको शुरुआत करने में मदद करेगा।
[![परिचय वीडियो](../../../../translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.hi.png)](https://youtu.be/Z5Zy85g4Yjw)
## [पूर्व-व्याख्यान क्विज़](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
## संभाव्यता और रैंडम वेरिएबल्स
**संभाव्यता** 0 और 1 के बीच की एक संख्या है जो किसी **घटना** के होने की संभावना को व्यक्त करती है। इसे सकारात्मक परिणामों की संख्या (जो घटना की ओर ले जाते हैं) को कुल परिणामों की संख्या से विभाजित करके परिभाषित किया जाता है, यह मानते हुए कि सभी परिणाम समान रूप से संभावित हैं। उदाहरण के लिए, जब हम एक पासा फेंकते हैं, तो एक सम संख्या प्राप्त करने की संभावना 3/6 = 0.5 है।
जब हम घटनाओं के बारे में बात करते हैं, तो हम **रैंडम वेरिएबल्स** का उपयोग करते हैं। उदाहरण के लिए, पासा फेंकने पर प्राप्त संख्या का प्रतिनिधित्व करने वाला रैंडम वेरिएबल 1 से 6 तक के मान लेगा। 1 से 6 तक की संख्या का सेट **सैंपल स्पेस** कहलाता है। हम रैंडम वेरिएबल के किसी निश्चित मान लेने की संभावना के बारे में बात कर सकते हैं, जैसे P(X=3)=1/6।
पिछले उदाहरण में रैंडम वेरिएबल को **डिस्क्रीट** कहा जाता है, क्योंकि इसका सैंपल स्पेस गिनने योग्य है, यानी अलग-अलग मान हैं जिन्हें सूचीबद्ध किया जा सकता है। ऐसे मामले भी होते हैं जब सैंपल स्पेस वास्तविक संख्याओं की एक सीमा या पूरे वास्तविक संख्याओं का सेट होता है। ऐसे वेरिएबल्स को **कंटीन्यस** कहा जाता है। एक अच्छा उदाहरण है बस के आने का समय।
## संभाव्यता वितरण
डिस्क्रीट रैंडम वेरिएबल्स के मामले में, प्रत्येक घटना की संभावना को एक फ़ंक्शन P(X) द्वारा वर्णित करना आसान है। सैंपल स्पेस *S* से प्रत्येक मान *s* के लिए यह 0 से 1 तक की संख्या देगा, ताकि सभी घटनाओं के लिए P(X=s) के सभी मानों का योग 1 हो।
सबसे प्रसिद्ध डिस्क्रीट वितरण **यूनिफॉर्म वितरण** है, जिसमें N तत्वों का सैंपल स्पेस होता है, और प्रत्येक के लिए समान संभावना 1/N होती है।
कंटीन्यस वेरिएबल के संभाव्यता वितरण का वर्णन करना अधिक कठिन है, जिसमें मान [a,b] के कुछ अंतराल या पूरे वास्तविक संख्याओं से लिए जाते हैं। बस के आने के समय के मामले पर विचार करें। वास्तव में, प्रत्येक सटीक समय *t* पर बस के आने की संभावना 0 है!
> अब आप जानते हैं कि 0 संभावना वाली घटनाएं होती हैं, और बहुत बार होती हैं! कम से कम हर बार जब बस आती है!
हम केवल वेरिएबल के किसी दिए गए मानों के अंतराल में गिरने की संभावना के बारे में बात कर सकते हैं, जैसे P(t<sub>1</sub>≤X<t<sub>2</sub>)। इस मामले में, संभाव्यता वितरण को **संभाव्यता घनत्व फ़ंक्शन** p(x) द्वारा वर्णित किया जाता है, ताकि
![P(t_1\le X<t_2)=\int_{t_1}^{t_2}p(x)dx](../../../../translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.hi.png)
यूनिफॉर्म वितरण का कंटीन्यस समकक्ष **कंटीन्यस यूनिफॉर्म** कहलाता है, जो एक सीमित अंतराल पर परिभाषित होता है। संभावना कि मान X लंबाई l के अंतराल में गिरता है, l के अनुपात में होती है, और 1 तक बढ़ती है।
एक अन्य महत्वपूर्ण वितरण **नॉर्मल वितरण** है, जिसके बारे में हम नीचे अधिक विस्तार से चर्चा करेंगे।
## माध्य, विचलन और मानक विचलन
मान लें कि हम रैंडम वेरिएबल X के n नमूनों का अनुक्रम बनाते हैं: x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>n</sub>। हम अनुक्रम के **माध्य** (या **गणितीय औसत**) मान को पारंपरिक तरीके से परिभाषित कर सकते हैं: (x<sub>1</sub>+x<sub>2</sub>+x<sub>n</sub>)/n। जैसे-जैसे हम नमूने का आकार बढ़ाते हैं (यानी n→∞ की सीमा लेते हैं), हम वितरण का माध्य (जिसे **अपेक्षा** भी कहा जाता है) प्राप्त करेंगे। हम अपेक्षा को **E**(x) द्वारा दर्शाएंगे।
> यह प्रदर्शित किया जा सकता है कि किसी भी डिस्क्रीट वितरण के लिए, जिसमें मान {x<sub>1</sub>, x<sub>2</sub>, ..., x<sub>N</sub>} और संबंधित संभावनाएं p<sub>1</sub>, p<sub>2</sub>, ..., p<sub>N</sub> हैं, अपेक्षा E(X)=x<sub>1</sub>p<sub>1</sub>+x<sub>2</sub>p<sub>2</sub>+...+x<sub>N</sub>p<sub>N</sub> के बराबर होगी।
यह पहचानने के लिए कि मान कितने दूर फैले हुए हैं, हम विचलन σ<sup>2</sup> = ∑(x<sub>i</sub> - μ)<sup>2</sup>/n की गणना कर सकते हैं, जहां μ अनुक्रम का माध्य है। मान σ को **मानक विचलन** कहा जाता है, और σ<sup>2</sup> को **विचलन** कहा जाता है।
## मोड, माध्यिका और क्वारटाइल्स
कभी-कभी, माध्य डेटा के "सामान्य" मान को पर्याप्त रूप से प्रस्तुत नहीं करता। उदाहरण के लिए, जब कुछ चरम मान होते हैं जो पूरी तरह से सीमा से बाहर होते हैं, तो वे माध्य को प्रभावित कर सकते हैं। एक अन्य अच्छा संकेतक **माध्यिका** है, एक ऐसा मान जिसके नीचे आधे डेटा पॉइंट होते हैं, और आधे - ऊपर।
डेटा के वितरण को समझने में मदद करने के लिए, **क्वारटाइल्स** के बारे में बात करना उपयोगी है:
* पहला क्वारटाइल, या Q1, एक ऐसा मान है, जिसके नीचे 25% डेटा गिरता है
* तीसरा क्वारटाइल, या Q3, एक ऐसा मान है जिसके नीचे 75% डेटा गिरता है
ग्राफ़िक रूप से हम माध्यिका और क्वारटाइल्स के बीच संबंध को **बॉक्स प्लॉट** नामक एक आरेख में प्रस्तुत कर सकते हैं:
<img src="images/boxplot_explanation.png" width="50%"/>
यहां हम **इंटर-क्वारटाइल रेंज** IQR=Q3-Q1 और तथाकथित **आउटलायर्स** - मान, जो सीमाओं [Q1-1.5*IQR,Q3+1.5*IQR] के बाहर होते हैं, की भी गणना करते हैं।
एक सीमित वितरण जिसमें संभावित मानों की संख्या कम होती है, एक अच्छा "सामान्य" मान वह होता है जो सबसे अधिक बार प्रकट होता है, जिसे **मोड** कहा जाता है। यह अक्सर श्रेणीबद्ध डेटा, जैसे रंगों, पर लागू होता है। मान लें कि हमारे पास दो समूह हैं - कुछ जो लाल रंग को बहुत पसंद करते हैं, और अन्य जो नीले रंग को पसंद करते हैं। यदि हम रंगों को संख्याओं द्वारा कोड करते हैं, तो पसंदीदा रंग के लिए माध्य मान कहीं नारंगी-हरे स्पेक्ट्रम में होगा, जो किसी भी समूह की वास्तविक पसंद को इंगित नहीं करता। हालांकि, मोड या तो एक रंग होगा, या दोनों रंग, यदि उनके लिए वोट करने वाले लोगों की संख्या समान है (इस मामले में हम नमूने को **मल्टीमोडल** कहते हैं)।
## वास्तविक दुनिया का डेटा
जब हम वास्तविक जीवन के डेटा का विश्लेषण करते हैं, तो वे अक्सर रैंडम वेरिएबल्स के रूप में नहीं होते हैं, इस अर्थ में कि हम अज्ञात परिणामों के साथ प्रयोग नहीं करते। उदाहरण के लिए, बेसबॉल खिलाड़ियों की एक टीम पर विचार करें, और उनके शरीर के डेटा, जैसे ऊंचाई, वजन और उम्र। ये संख्याएं बिल्कुल रैंडम नहीं हैं, लेकिन हम अभी भी उन्हीं गणितीय अवधारणाओं को लागू कर सकते हैं। उदाहरण के लिए, लोगों के वजन का अनुक्रम कुछ रैंडम वेरिएबल से लिए गए मानों का अनुक्रम माना जा सकता है। नीचे [मेजर लीग बेसबॉल](http://mlb.mlb.com/index.jsp) के वास्तविक बेसबॉल खिलाड़ियों के वजन का अनुक्रम है, जो [इस डेटासेट](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) से लिया गया है (आपकी सुविधा के लिए, केवल पहले 20 मान दिखाए गए हैं):
```
[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
```
> **नोट**: इस डेटासेट के साथ काम करने के उदाहरण को देखने के लिए, [संबंधित नोटबुक](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) पर एक नज़र डालें। इस पाठ में कई चुनौतियां भी हैं, और आप उस नोटबुक में कुछ कोड जोड़कर उन्हें पूरा कर सकते हैं। यदि आप डेटा पर काम करने के तरीके के बारे में सुनिश्चित नहीं हैं, तो चिंता न करें - हम बाद में Python का उपयोग करके डेटा पर काम करने पर वापस आएंगे। यदि आप Jupyter Notebook में कोड चलाने का तरीका नहीं जानते हैं, तो [इस लेख](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) को देखें।
यहां हमारे डेटा के लिए माध्य, माध्यिका और क्वारटाइल्स दिखाने वाला बॉक्स प्लॉट है:
![वजन बॉक्स प्लॉट](../../../../translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.hi.png)
चूंकि हमारे डेटा में विभिन्न खिलाड़ी **भूमिकाओं** के बारे में जानकारी है, हम भूमिका के अनुसार बॉक्स प्लॉट भी बना सकते हैं - यह हमें यह विचार करने की अनुमति देगा कि पैरामीटर मान भूमिकाओं के बीच कैसे भिन्न होते हैं। इस बार हम ऊंचाई पर विचार करेंगे:
![भूमिका के अनुसार बॉक्स प्लॉट](../../../../translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.hi.png)
यह आरेख सुझाव देता है कि, औसतन, पहले बेसमैन की ऊंचाई दूसरे बेसमैन की ऊंचाई से अधिक है। इस पाठ में बाद में हम सीखेंगे कि हम इस परिकल्पना का अधिक औपचारिक रूप से परीक्षण कैसे कर सकते हैं, और यह प्रदर्शित कर सकते हैं कि हमारे डेटा सांख्यिकीय रूप से महत्वपूर्ण है।
> जब वास्तविक दुनिया के डेटा के साथ काम करते हैं, तो हम मानते हैं कि सभी डेटा पॉइंट्स कुछ संभाव्यता वितरण से लिए गए नमूने हैं। यह धारणा हमें मशीन लर्निंग तकनीकों को लागू करने और काम करने वाले भविष्यवाणी मॉडल बनाने की अनुमति देती है।
हमारे डेटा का वितरण देखने के लिए, हम **हिस्टोग्राम** नामक एक ग्राफ़ बना सकते हैं। X-अक्ष में विभिन्न वजन अंतराल (जिसे **बिन्स** कहा जाता है) की संख्या होगी, और वर्टिकल अक्ष में यह दिखाएगा कि हमारा रैंडम वेरिएबल नमूना दिए गए अंतराल में कितनी बार था।
![वास्तविक दुनिया के डेटा का हिस्टोग्राम](../../../../translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.hi.png)
इस हिस्टोग्राम से आप देख सकते हैं कि सभी मान एक निश्चित औसत वजन के आसपास केंद्रित हैं, और जैसे-जैसे हम उस वजन से दूर जाते हैं - उस मान के वजन कम बार मिलते हैं। यानी, यह बहुत ही असंभावित है कि बेसबॉल खिलाड़ी का वजन औसत वजन से बहुत अलग होगा। वजन का विचलन दिखाता है कि वजन औसत से कितना भिन्न होने की संभावना है।
> यदि हम अन्य लोगों के वजन लेते हैं, जो बेसबॉल लीग से नहीं हैं, तो वितरण अलग होने की संभावना है। हालांकि, वितरण का आकार समान रहेगा, लेकिन माध्य और विचलन बदल जाएंगे। इसलिए, यदि हम अपने मॉडल को बेसबॉल खिलाड़ियों पर प्रशिक्षित करते हैं, तो यह विश्वविद्यालय के छात्रों पर लागू होने पर गलत परिणाम देने की संभावना है, क्योंकि अंतर्निहित वितरण अलग है।
## नॉर्मल वितरण
ऊपर हमने जो वजन का वितरण देखा वह बहुत सामान्य है, और वास्तविक दुनिया से कई माप एक ही प्रकार के वितरण का पालन करते हैं, लेकिन अलग-अलग माध्य और विचलन के साथ। इस वितरण को **नॉर्मल वितरण** कहा जाता है, और यह सांख्यिकी में बहुत महत्वपूर्ण भूमिका निभाता है।
नॉर्मल वितरण का उपयोग संभावित बेसबॉल खिलाड़ियों के यादृच्छिक वजन उत्पन्न करने का सही तरीका है। एक बार जब हम औसत वजन `mean` और मानक विचलन `std` जानते हैं, तो हम निम्नलिखित तरीके से 1000 वजन नमूने उत्पन्न कर सकते हैं:
```python
samples = np.random.normal(mean,std,1000)
```
यदि हम उतपन नमों ि बन ैं, हम ऊपर ि गए ि सम ि ेंे। और यदि हम नमों और ि बढ़ा ैं, हम मल ितरण एक अधि आदर तस उतपन कर सकत ैं:
![=0 और नक िचलन=1 मल ितरण](../../../../translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.hi.png)
*=0 और नक िचलन=1 मल ितरण*
## विश्वास अंतराल
जब हम सब ि़िों वजन ें करत ैं, हम नत ैं ि एक िि **ैंडम िएबल W** सभ सब ि़िों वजन आदर यत ितरण (ि **शन** कह ) ै। हम वजन अनरम सभ सब ि़िों एक उपसमचय ि हम **नम** कहत ैं। एक िलचस सव यह ि हम W ितरण टर, शन और िचलन सकत ैं?
सबस आस उततर हम नम और िचलन गणन करना। ांि, ऐस सकत ि हम ि नम शन सट रतििि करे। इसलि **ि तर** ें करन समझ ें आत ै।
> **िें टरवल** हम ैंपल आध पर जनस सह औसत अन , एक िि वन ( **ि तर**) सट ै।
ि हम ितरण X<sub>1</sub>, ..., X<sub>n</sub> एक नम ै। हर जब हम अपन ितरण एक नम ैं, हमें अलग-अलग औसत μ ै। इसलि μ एक ि चर सकत ै। **ि तर** (confidence interval) िसमें ि p , ों (L<sub>p</sub>,R<sub>p</sub>) एक ़ा , ऐस ि **P**(L<sub>p</sub>μR<sub>p</sub>) = p, गय औसत इस तर ें आन वन p बरबर ै।
यहां ि चर करन ि ि तर गणन ि ैं, हम ि परिचय पर ै। और िवरण [ििि](https://en.wikipedia.org/wiki/Confidence_interval) पर सकत ैं। ें, हम जनस तवि औसत गणन ि गए नम औसत ितरण परिि करत ैं, ि **ें ितरण** (student distribution) कह ै।
> **चक तथ**: ें ितरण गणितज िियम पर रख गय , िों "स्टूडेंट" उपन तहत अपन पर रकि िा। वह ि अर ें करत , और एक करण अन, उनक ि नहीं हत ि आम जनत पत चल ि कच णवत िि करन ि ांि परषणों उपय कर रह े।
यदि हम अपन जनस औसत μ ि p अनि करन हत ैं, हमें ें ितरण A *(1-p)/2- रतिशतक* , ि ि ि सकत , ांि ़्टवयर ( Python, R, आदि) तरिि ों उपय करक गणन ि सकत ै। ि μ ि तर X±A*D/n , जहां X नम औसत , और D नक िचलन ै।
> ****: हम [ि ऑफ डम](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) एक महतवप अवधरण चर ैं, ें ितरण ें महतवप ै। इस अवधरण गहर समझन ि आप ांि पर अधि तकों दर सकत ैं।
वजन और ि ि तर गणन एक उदहरण [ि टब](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) ें ि गय ै।
| p | वजन औसत |
|-----|-----------|
| 0.85 | 201.73±0.94 |
| 0.90 | 201.73±1.08 |
| 0.95 | 201.73±1.28 |
ें ि - ि वन बढ , ि तर ़ा ै।
## परिकल्पना परीक्षण
हम सब ि़िों ें िि ि़ी ि ैं, िें ांि ि सकत (ें [ि टब](../../../../1-Introduction/04-stats-and-probability/notebook.ipynb) ि यह ि गणन सकत ):
| ि | | वजन | |
|------|--------|--------|-------|
| चर | 72.723684 | 204.328947 | 76 |
| ि़ि िटर | 74.222222 | 220.888889 | 18 |
| फर सम | 74.000000 | 213.109091 | 55 |
| आउटफडर | 73.010309 | 199.113402 | 194 |
| ि िचर | 74.374603 | 203.517460 | 315 |
| सम | 71.362069 | 184.344828 | 58 |
| टस | 71.903846 | 182.923077 | 52 |
| िं िचर | 74.719457 | 205.163636 | 221 |
| थर सम | 73.044444 | 200.955556 | 45 |
हम सकत ैं ि फर सम औसत सम लन ें अधि ै। इसलि, हम यह िकर िलन ि ि सकत ैं ि **फर सम सम ैं**
> इस कथन **एक परिकलपन** कह , ोंि हमें नहीं पत ि यह तथ तव ें सह नहीं।
ांि, यह हम पष नहीं ि हम यह िकर ि सकत ैं। ऊपर चर हम नत ैं ि रत औसत एक ि ि तर , और इसलि यह तर वल एक ांि ि सकत ै। हमें अपन परिकलपन परषण करन ि अधि औपचि तर आवशयकत ै।
आइए फर और सम ि ि तर अलग-अलग गणन करें:
| ि | फर सम | सम |
|------------|---------------|----------------|
| 0.85 | 73.62..74.38 | 71.04..71.69 |
| 0.90 | 73.56..74.44 | 70.99..71.73 |
| 0.95 | 73.47..74.53 | 70.92..71.81 |
हम सकत ैं ि ि ि तर पर तर ओवरल नहीं करते। यह हम परिकलपन ि करत ि फर सम सम ैं।
अधि औपचि , हम ि समस हल कर रह ैं वह यह खन ि ** वन ितरण सम ैं**, कम कम उनक सम टर ैं। ितरण आध पर, हमें इसक ि अलग-अलग परषणों उपय करन ा। यदि हमें पत ि हम ितरण ैं, हम **[ें t-परषण](https://en.wikipedia.org/wiki/Student%27s_t-test)** कर सकत ैं।
ें t-परषण ें, हम तथकथि **t-** गणन करत ैं, औसत तर ि करत , और िचलन ें रखत ै। यह रदरि ि गय ि t- **ें ितरण** अनसरण करत , हमें ि गए ि तर **p** ि करन अनमति (यह गणन ि सकत , मक ि ें सकत ) ि हम t- लन इस करत ैं ि परिकलपन अस ि सके।
Python ें, हम **SciPy** उपय कर सकत ैं, िसमें `ttest_ind` ़ंशन ि (ांि ों कई अन उपय ों अला!) यह हम ि t- गणन करत , और ि p- िवर कअप करत , ि हम वल ि खकर िकर ि सकें।
उदहरण ि, फर और सम लन हमें िनलिि परि :
```python
from scipy.stats import ttest_ind
tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
```
```
T-value = 7.65
P-value: 9.137321189738925e-12
```
हमारे मामले में, p-मूल्य बहुत कम है, जिसका अर्थ है कि फर्स्ट बेसमैन के ऊंचे होने का समर्थन करने वाले मजबूत प्रमाण हैं।
इसके अलावा, अन्य प्रकार की परिकल्पनाएं भी हैं जिन्हें हम परीक्षण करना चाह सकते हैं, जैसे:
* यह साबित करना कि दिया गया नमूना किसी वितरण का अनुसरण करता है। हमारे मामले में हमने मान लिया है कि ऊंचाई सामान्य रूप से वितरित हैं, लेकिन इसे औपचारिक सांख्यिकीय सत्यापन की आवश्यकता है।
* यह साबित करना कि नमूने का औसत मान किसी पूर्वनिर्धारित मान से मेल खाता है।
* कई नमूनों के औसत की तुलना करना (जैसे विभिन्न आयु समूहों के बीच खुशी के स्तर में अंतर क्या है)।
## बड़े संख्याओं का नियम और केंद्रीय सीमा प्रमेय
सामान्य वितरण इतना महत्वपूर्ण क्यों है इसका एक कारण **केंद्रीय सीमा प्रमेय** है। मान लीजिए हमारे पास स्वतंत्र N मानों X<sub>1</sub>, ..., X<sub>N</sub> का एक बड़ा नमूना है, जिसे किसी भी वितरण से μ औसत और σ<sup>2</sup> विचलन के साथ नमूना लिया गया है। फिर, पर्याप्त रूप से बड़े N के लिए (दूसरे शब्दों में, जब N→∞), औसत Σ<sub>i</sub>X<sub>i</sub> सामान्य रूप से वितरित होगा, μ औसत और σ<sup>2</sup>/N विचलन के साथ।
> केंद्रीय सीमा प्रमेय को दूसरे तरीके से यह कहने के लिए भी व्याख्या किया जा सकता है कि वितरण की परवाह किए बिना, जब आप किसी भी यादृच्छिक चर मानों के योग का औसत गणना करते हैं तो आप सामान्य वितरण प्राप्त करते हैं।
केंद्रीय सीमा प्रमेय से यह भी पता चलता है कि, जब N→∞, नमूना औसत के μ के बराबर होने की संभावना 1 हो जाती है। इसे **बड़े संख्याओं का नियम** कहा जाता है।
## सहसंबंध और सहभिन्नता
डेटा साइंस जो काम करती है उनमें से एक है डेटा के बीच संबंध ढूंढना। हम कहते हैं कि दो अनुक्रम **सहसंबद्ध** हैं जब वे एक ही समय में समान व्यवहार प्रदर्शित करते हैं, यानी वे या तो एक साथ बढ़ते/घटते हैं, या एक अनुक्रम बढ़ता है जब दूसरा घटता है और इसके विपरीत। दूसरे शब्दों में, दो अनुक्रमों के बीच कुछ संबंध प्रतीत होता है।
> सहसंबंध जरूरी नहीं कि दो अनुक्रमों के बीच कारणात्मक संबंध को इंगित करता है; कभी-कभी दोनों चर किसी बाहरी कारण पर निर्भर हो सकते हैं, या यह केवल संयोग से हो सकता है कि दोनों अनुक्रम सहसंबद्ध हैं। हालांकि, मजबूत गणितीय सहसंबंध यह संकेत देता है कि दो चर किसी न किसी तरह से जुड़े हुए हैं।
गणितीय रूप से, दो यादृच्छ
**अस्वीकरण**:
यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियां हो सकती हैं। मूल भाषा में उपलब्ध मूल दस्तावेज़ को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।