From f92acc84e0421313bb3e86251d5dc832e45e693f Mon Sep 17 00:00:00 2001 From: "localizeflow[bot]" Date: Sat, 28 Feb 2026 11:42:01 +0000 Subject: [PATCH] chore(i18n): sync translations with latest source changes (chunk 1/1, 21 changes) --- translations/bn/.co-op-translator.json | 28 +- .../1-Introduction/3-fairness/assignment.md | 18 +- .../bn/2-Regression/3-Linear/README.md | 373 ++++++++++-------- .../3-Classifiers-2/README.md | 114 +++--- .../3-Classifiers-2/notebook.ipynb | 14 +- .../3-Classifiers-2/solution/notebook.ipynb | 18 +- translations/bn/README.md | 235 +++++------ translations/mr/.co-op-translator.json | 28 +- .../1-Introduction/3-fairness/assignment.md | 10 +- .../mr/2-Regression/3-Linear/README.md | 281 +++++++------ .../3-Classifiers-2/README.md | 118 +++--- .../3-Classifiers-2/notebook.ipynb | 16 +- .../3-Classifiers-2/solution/notebook.ipynb | 22 +- translations/mr/README.md | 206 +++++----- translations/ne/.co-op-translator.json | 28 +- .../1-Introduction/3-fairness/assignment.md | 16 +- .../ne/2-Regression/3-Linear/README.md | 278 +++++++------ .../3-Classifiers-2/README.md | 112 +++--- .../3-Classifiers-2/notebook.ipynb | 16 +- .../3-Classifiers-2/solution/notebook.ipynb | 22 +- translations/ne/README.md | 213 +++++----- 21 files changed, 1132 insertions(+), 1034 deletions(-) diff --git a/translations/bn/.co-op-translator.json b/translations/bn/.co-op-translator.json index 78a1dfb51..fa95e8195 100644 --- a/translations/bn/.co-op-translator.json +++ b/translations/bn/.co-op-translator.json @@ -30,8 +30,8 @@ "language_code": "bn" }, "1-Introduction/3-fairness/assignment.md": { - "original_hash": "dbda60e7b1fe5f18974e7858eff0004e", - "translation_date": "2025-08-29T21:23:54+00:00", + "original_hash": "c81d9affadb89d017d610eadeb6c84f9", + "translation_date": "2026-02-28T11:31:18+00:00", "source_file": "1-Introduction/3-fairness/assignment.md", "language_code": "bn" }, @@ -90,8 +90,8 @@ "language_code": "bn" }, "2-Regression/3-Linear/README.md": { - "original_hash": "40e64f004f3cb50aa1d8661672d3cd92", - "translation_date": "2025-09-04T20:57:44+00:00", + "original_hash": "9a8359f1945bd3beccccb2b46592580e", + "translation_date": "2026-02-28T11:32:35+00:00", "source_file": "2-Regression/3-Linear/README.md", "language_code": "bn" }, @@ -186,8 +186,8 @@ "language_code": "bn" }, "4-Classification/3-Classifiers-2/README.md": { - "original_hash": "49047911108adc49d605cddfb455749c", - "translation_date": "2025-09-04T21:11:41+00:00", + "original_hash": "d94438d71164b0ff68002812aed1a8b4", + "translation_date": "2026-02-28T11:33:03+00:00", "source_file": "4-Classification/3-Classifiers-2/README.md", "language_code": "bn" }, @@ -197,12 +197,24 @@ "source_file": "4-Classification/3-Classifiers-2/assignment.md", "language_code": "bn" }, + "4-Classification/3-Classifiers-2/notebook.ipynb": { + "original_hash": "624ca6cf73d3548ff1b3059e413fa4cd", + "translation_date": "2026-02-28T11:29:04+00:00", + "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", + "language_code": "bn" + }, "4-Classification/3-Classifiers-2/solution/Julia/README.md": { "original_hash": "a39c15d63f3b2795ee2284a82b986b93", "translation_date": "2025-08-29T21:50:41+00:00", "source_file": "4-Classification/3-Classifiers-2/solution/Julia/README.md", "language_code": "bn" }, + "4-Classification/3-Classifiers-2/solution/notebook.ipynb": { + "original_hash": "70f41fe4fd4253adb44cd9d291406e4f", + "translation_date": "2026-02-28T11:29:16+00:00", + "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", + "language_code": "bn" + }, "4-Classification/4-Applied/README.md": { "original_hash": "61bdec27ed2da8b098cd9065405d9bb0", "translation_date": "2025-09-04T21:10:51+00:00", @@ -540,8 +552,8 @@ "language_code": "bn" }, "README.md": { - "original_hash": "2f594ee136e3127a47f56d80055227bc", - "translation_date": "2026-02-06T07:57:45+00:00", + "original_hash": "3a0286e1c4858e79ff54f080dadc1426", + "translation_date": "2026-02-28T11:31:11+00:00", "source_file": "README.md", "language_code": "bn" }, diff --git a/translations/bn/1-Introduction/3-fairness/assignment.md b/translations/bn/1-Introduction/3-fairness/assignment.md index f226d5c8c..1e0a6d4aa 100644 --- a/translations/bn/1-Introduction/3-fairness/assignment.md +++ b/translations/bn/1-Introduction/3-fairness/assignment.md @@ -1,16 +1,18 @@ -# দায়িত্বশীল এআই টুলবক্স অন্বেষণ করুন +# দায়িত্বশীল AI টুলবক্স অন্বেষণ করুন -## নির্দেশাবলী +## নির্দেশিকা -এই পাঠে আপনি দায়িত্বশীল এআই টুলবক্স সম্পর্কে শিখেছেন, যা "একটি ওপেন-সোর্স, কমিউনিটি-চালিত প্রকল্প যা ডেটা বিজ্ঞানীদের এআই সিস্টেম বিশ্লেষণ এবং উন্নত করতে সাহায্য করে।" এই অ্যাসাইনমেন্টের জন্য, RAI টুলবক্সের একটি [নোটবুক](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/getting-started.ipynb) অন্বেষণ করুন এবং আপনার পর্যবেক্ষণ একটি পেপার বা প্রেজেন্টেশনে উপস্থাপন করুন। +এই পাঠে আপনি দায়িত্বশীল AI টুলবক্স সম্পর্কে শিখেছেন, যা একটি "ওপেন-সোর্স, কমিউনিটি-চালিত প্রকল্প যা ডেটা বিজ্ঞানীদের AI সিস্টেম বিশ্লেষণ এবং উন্নত করতে সাহায্য করে।" এই অ্যাসাইনমেন্টের জন্য, RAI টুলবক্সের একটি [নোটবুক](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/tabular/getting-started.ipynb) অন্বেষণ করুন এবং আপনার ফলাফল একটি পত্র বা উপস্থাপনার মাধ্যমে প্রতিবেদনে উপস্থাপন করুন। -## মূল্যায়ন সূচক +## মূল্যায়ন মানদণ্ড -| মানদণ্ড | চমৎকার | পর্যাপ্ত | উন্নতির প্রয়োজন | +| ক্রাইটেরিয়া | উৎকৃষ্ট | পর্যাপ্ত | উন্নতির প্রয়োজন | | -------- | --------- | -------- | ----------------- | -| | একটি পেপার বা পাওয়ারপয়েন্ট প্রেজেন্টেশন উপস্থাপন করা হয়েছে যেখানে Fairlearn-এর সিস্টেম, চালানো নোটবুক এবং তা থেকে প্রাপ্ত সিদ্ধান্তগুলো আলোচনা করা হয়েছে | একটি পেপার উপস্থাপন করা হয়েছে কিন্তু কোনো সিদ্ধান্ত নেই | কোনো পেপার উপস্থাপন করা হয়নি | +| | Fairlearn-এর সিস্টেম, চালানো নোটবুক, এবং সেটি চালিয়ে প্রাপ্ত উপসংহার নিয়ে আলোচনা করা একটি পত্র বা পাওয়ারপয়েন্ট উপস্থাপনা প্রদান করা হয়েছে | উপসংহার ছাড়া একটি পত্র উপস্থাপন করা হয়েছে | কোন পত্র উপস্থাপন করা হয়নি | --- -**অস্বীকৃতি**: -এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। নথিটির মূল ভাষায় লেখা সংস্করণটিকেই প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ ব্যবহার করার পরামর্শ দেওয়া হচ্ছে। এই অনুবাদ ব্যবহারের ফলে সৃষ্ট কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। \ No newline at end of file + +**দ্রষ্টব্য**: +এই নথিটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। আমরা যথাসম্ভব সঠিকতা নিশ্চিত করার চেষ্টা করলেও, অনুগ্রহ করে জানবেন যে স্বয়ংক্রিয় অনুবাদে ভুল বা অসম্পূর্ণতা থাকতে পারে। মূল নথিটি তার নিজ ভাষায়ই কর্তৃত্বপূর্ণ উৎস হিসেবে বিবেচিত হওয়া উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানুষের অনুবাদ গ্রহণ করার সুপারিশ করা হয়। এই অনুবাদের ব্যবহারে সৃষ্ট কোন ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। + \ No newline at end of file diff --git a/translations/bn/2-Regression/3-Linear/README.md b/translations/bn/2-Regression/3-Linear/README.md index c6333634a..58882b33b 100644 --- a/translations/bn/2-Regression/3-Linear/README.md +++ b/translations/bn/2-Regression/3-Linear/README.md @@ -1,124 +1,136 @@ -# স্কিকিট-লার্ন ব্যবহার করে রিগ্রেশন মডেল তৈরি করুন: চারটি পদ্ধতিতে রিগ্রেশন +# স্কিকিট-লার্ন ব্যবহার করে একটি রিগ্রেশন মডেল তৈরি করুন: চারটি ধরনের রিগ্রেশন -![লিনিয়ার বনাম পলিনোমিয়াল রিগ্রেশন ইনফোগ্রাফিক](../../../../2-Regression/3-Linear/images/linear-polynomial.png) -> ইনফোগ্রাফিক: [দাসানি মাদিপল্লি](https://twitter.com/dasani_decoded) +## শিক্ষানবীশ নোট + +লিনিয়ার রিগ্রেশন ব্যবহৃত হয় যখন আমরা একটি **সংখ্যাত্মক মান** прогноз করতে চাই (উদাহরণস্বরূপ, বাড়ির দাম, তাপমাত্রা, বা বিক্রয়)। +এটি কাজ করে এমন একটি সরলরেখা খুঁজে বের করে যা ইনপুট বৈশিষ্ট্য এবং আউটপুটের মধ্যে সম্পর্ককে সর্বোত্তমভাবে উপস্থাপন করে। + +এই পাঠে, আমরা মূল ধারণাটি বুঝতেও মনোযোগ দেবো, এবং পরে আরও উন্নত রিগ্রেশন প্রযুক্তিগুলি অন্বেষণ করবো। +![Linear vs polynomial regression infographic](../../../../translated_images/bn/linear-polynomial.5523c7cb6576ccab.webp) +> ইনফোগ্রাফিক [দাসানি মাডিপাল্লি](https://twitter.com/dasani_decoded) দ্বারা ## [পূর্ব-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) -> ### [এই পাঠটি R-এও উপলব্ধ!](../../../../2-Regression/3-Linear/solution/R/lesson_3.html) -### ভূমিকা +> ### [এই পাঠটি R ভাষায় পাওয়া যায়!](../../../../2-Regression/3-Linear/solution/R/lesson_3.html) +### পরিচিতি -এখন পর্যন্ত আপনি রিগ্রেশন কী তা কুমড়ার দাম সম্পর্কিত নমুনা ডেটার মাধ্যমে অন্বেষণ করেছেন, যা আমরা এই পাঠে ব্যবহার করব। আপনি এটি ম্যাটপ্লটলিব ব্যবহার করে ভিজ্যুয়ালাইজও করেছেন। +এখন পর্যন্ত আপনি পদক্ষেপভিত্তিক রিগ্রেশন কী তা অন্বেষণ করেছেন, আমরা যা ব্যবহার করছি সেসব কুমড়ো মূল্য ডেটাসেট থেকে উদাহরণ হিসেবে। আপনি matplotlib দিয়ে এটি ভিজুয়ালাইজেশনও করেছেন। -এখন আপনি মেশিন লার্নিংয়ের জন্য রিগ্রেশন আরও গভীরভাবে বুঝতে প্রস্তুত। ভিজ্যুয়ালাইজেশন ডেটা বোঝার জন্য সহায়ক হলেও, মেশিন লার্নিংয়ের আসল শক্তি _মডেল প্রশিক্ষণ_ থেকে আসে। মডেলগুলো ঐতিহাসিক ডেটার উপর প্রশিক্ষিত হয় যাতে ডেটার নির্ভরশীলতা স্বয়ংক্রিয়ভাবে ধরা যায় এবং নতুন ডেটার জন্য ফলাফল পূর্বাভাস দেওয়া যায়, যা মডেল আগে দেখেনি। +এখন আপনি এমএল এর জন্য রিগ্রেশনে আরও গভীরে প্রবেশ করার জন্য প্রস্তুত। ভিজুয়ালাইজেশন ডেটা বোঝার জন্য সাহায্য করে, কিন্তু মেশিন লার্নিংয়ের আসল শক্তি আসে _মডেল প্রশিক্ষণ_ থেকে। মডেলগুলি ঐতিহাসিক ডেটায় প্রশিক্ষিত হয় যাতে তারা ডেটার নির্ভরতা স্বয়ংক্রিয়ভাবে ধরতে পারে, এবং এটি নতুন ডেটার জন্য পূর্বাভাস দিতে সক্ষম করে, যা আগে মডেল দেখেনি। -এই পাঠে, আপনি দুটি ধরণের রিগ্রেশন সম্পর্কে আরও জানবেন: _বেসিক লিনিয়ার রিগ্রেশন_ এবং _পলিনোমিয়াল রিগ্রেশন_, এবং এই পদ্ধতিগুলোর কিছু গাণিতিক ভিত্তি। এই মডেলগুলো আমাদের বিভিন্ন ইনপুট ডেটার উপর ভিত্তি করে কুমড়ার দাম পূর্বাভাস দিতে সাহায্য করবে। +এই পাঠে, আপনি দুই ধরনের রিগ্রেশন সম্পর্কে শেখবেন: _মৌলিক লিনিয়ার রিগ্রেশন_ এবং _পলিনোমিয়াল রিগ্রেশন_, এর সাথে এই প্রযুক্তির প্রাথমিক গাণিতিক ধারণা। এই মডেলগুলি আমাদের দেয় আলাদা ইনপুট ডেটার উপর ভিত্তি করে কুমড়োর দাম অনুমান করার সুযোগ। -[![শুরু করুন লিনিয়ার রিগ্রেশন বুঝতে](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "শুরু করুন লিনিয়ার রিগ্রেশন বুঝতে") +[![ML for beginners - Understanding Linear Regression](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "ML for beginners - Understanding Linear Regression") -> 🎥 উপরের ছবিতে ক্লিক করুন লিনিয়ার রিগ্রেশন সম্পর্কে সংক্ষিপ্ত ভিডিও দেখার জন্য। +> 🎥 উপরের ছবিতে ক্লিক করুন লিনিয়ার রিগ্রেশনের একটি সংক্ষিপ্ত ভিডিও ওভারভিউ এর জন্য। -> এই পাঠক্রমে, আমরা গণিতের ন্যূনতম জ্ঞান ধরে নিয়েছি এবং এটি অন্যান্য ক্ষেত্র থেকে আসা শিক্ষার্থীদের জন্য সহজলভ্য করার চেষ্টা করেছি। তাই নোট, 🧮 কলআউট, ডায়াগ্রাম এবং অন্যান্য শিক্ষণ সরঞ্জামগুলোর দিকে নজর রাখুন। +> এই কারিকুলামের পুরো সময় আমরা গাণিতিক জ্ঞান সীমিত ধরেই চলব, এবং অন্য ক্ষেত্রে থেকে আসা শিক্ষার্থীদের জন্য এটি সহজবোধ্য করার চেষ্টা করব, তাই নোট, 🧮 কলআউট, চিত্র এবং অন্যান্য শিক্ষণ সরঞ্জাম লক্ষ্য রাখুন সহায়তার জন্য। -### পূর্বশর্ত +### পূর্ব শর্ত -আপনার এখন পর্যন্ত কুমড়ার ডেটার গঠন সম্পর্কে পরিচিত হওয়া উচিত, যা আমরা পরীক্ষা করছি। এই পাঠের _notebook.ipynb_ ফাইলে এটি প্রি-লোড এবং প্রি-ক্লিন করা অবস্থায় পাওয়া যাবে। ফাইলে, কুমড়ার দাম প্রতি বাসেল হিসেবে একটি নতুন ডেটা ফ্রেমে প্রদর্শিত হয়েছে। নিশ্চিত করুন যে আপনি এই নোটবুকগুলো ভিজ্যুয়াল স্টুডিও কোডের কার্নেলে চালাতে পারেন। +আপনি এখন পর্যন্ত যে কুমড়ো ডেটা নিয়ে কাজ করছেন তার কাঠামো সম্পর্কে পরিচিত হওয়া উচিত। এটি আপনি এটি আগেই লোড ও ক্লিন করে রেখেছেন এই পাঠের _notebook.ipynb_ ফাইলে। এই ফাইলে, কুমড়ো দামের তথ্য প্রতি বাসেলের হিসেবে নতুন ডেটা ফ্রেমে দেখানো হয়েছে। +Visual Studio Code এ কনর্নেলে এই নোটবুকগুলো চালাতে পারবেন কিনা তা পরীক্ষা করে নিন। ### প্রস্তুতি -স্মরণ করিয়ে দেওয়া হচ্ছে, আপনি এই ডেটা লোড করছেন যাতে এর উপর প্রশ্ন করতে পারেন। +স্মরণ করিয়ে দিতে চাই, আপনি এই ডেটা লোড করছেন যাতে এর জন্য প্রশ্ন করতে পারেন। + +- কখন কুমড়ো কেনা সবচেয়ে ভালো সময়? +- ছোট আকারের কুমড়োর একটি কেসের দাম প্রায় কত হবে? +- কি আমি এগুলো আধা বাসেল বস্তায় কিনব, না ১ ১/৯ বাসেল বাক্সে? +চলুন এ ডেটার খোঁজ চালিয়ে যাই। + +আগের পাঠে, আপনি একটি Pandas ডেটা ফ্রেম তৈরি করেছিলেন এবং মূল ডেটাসেটের একটি অংশ দিয়ে পূর্ণ করেছিলেন, দামগুলো বাসেল অনুযায়ী মানানসই করে। এর ফলে, আপনি মাত্র ৪০০-র মতো ডেটাপয়েন্ট এবং শুধুমাত্র শরতের মাসগুলো নিয়েই তথ্য সংগ্রহ করতে পেরেছিলেন। -- কুমড়া কেনার সেরা সময় কখন? -- ক্ষুদ্রাকৃতির কুমড়ার একটি কেসের দাম কত হতে পারে? -- আমি কি এগুলো অর্ধ-বাসেল ঝুড়িতে কিনব নাকি ১ ১/৯ বাসেল বাক্সে কিনব? -চলুন এই ডেটা আরও গভীরভাবে বিশ্লেষণ করি। +এই পাঠের সঙ্গেই প্রিলোড করা ডেটা দেখুন। ডেটা লোড করা হয়েছে এবং প্রথম একটি স্ক্যাটারপ্লট চার্টে মাস অনুযায়ী দেখানো হয়েছে। হয়তো আরও পরিষ্কার করতে ডেটা ক্লিন করে আরও বিশদ পেতে পারি। -পূর্ববর্তী পাঠে, আপনি একটি প্যান্ডাস ডেটা ফ্রেম তৈরি করেছেন এবং মূল ডেটাসেটের অংশ দিয়ে এটি পূরণ করেছেন, দামকে বাসেল অনুযায়ী মানক করে। তবে, এর ফলে আপনি শুধুমাত্র প্রায় ৪০০ ডেটাপয়েন্ট এবং শুধুমাত্র শরৎ মাসের জন্য ডেটা সংগ্রহ করতে পেরেছেন। +## একটি লিনিয়ার রিগ্রেশন লাইন -এই পাঠের সাথে থাকা নোটবুকে প্রি-লোড করা ডেটা দেখুন। ডেটা প্রি-লোড করা হয়েছে এবং একটি প্রাথমিক স্ক্যাটারপ্লট চার্ট করা হয়েছে মাসের ডেটা দেখানোর জন্য। হয়তো আমরা ডেটার প্রকৃতি সম্পর্কে আরও বিস্তারিত জানতে পারি যদি এটি আরও পরিষ্কার করি। +যেমন আপনি পাঠ ১ এ শিখেছেন, লিনিয়ার রিগ্রেশন চর্চার লক্ষ্য হলো একটি লাইন আঁকা যাতে: -## একটি লিনিয়ার রিগ্রেশন লাইন +- **চর পরিবর্তনের সম্পর্ক দেখানো**। চর পরিবর্তনের মধ্যে সম্পর্ককে উপস্থাপন করা। +- **পূর্বাভাস তৈরি**। এমন একটি পূর্বাভাস তৈরি করা যেখানে নতুন ডেটাপয়েন্ট সেই লাইন সম্পর্কিত কোথায় পড়বে তা নির্ধারণ করা যায়। -পাঠ ১-এ আপনি শিখেছেন যে একটি লিনিয়ার রিগ্রেশন অনুশীলনের লক্ষ্য হলো একটি লাইন প্লট করা যাতে: +সাধারণত, **লিস্ট-স্কোয়ার্স রিগ্রেশন** এই ধরনের লাইন আঁকার জন্য ব্যবহৃত হয়। "লিস্ট-স্কোয়ার্স" শব্দটি বোঝায় এমন একটি প্রক্রিয়া যেখানে মোট ত্রুটি (এরর) সর্বনিম্ন করার চেষ্টা করা হয়। প্রতিটি ডেটা পয়েন্টের জন্য, আমরা আসল পয়েন্ট এবং আমাদের রিগ্রেশন লাইনের মধ্যে উল্লম্ব দূরত্ব (যা রেসিডুয়াল নামে পরিচিত) পরিমাপ করি। -- **ভেরিয়েবল সম্পর্ক দেখানো যায়**। ভেরিয়েবলগুলোর মধ্যে সম্পর্ক দেখানো যায়। -- **পূর্বাভাস দেওয়া যায়**। নতুন ডেটাপয়েন্টটি সেই লাইনের সাথে সম্পর্কিত কোথায় পড়বে তা সঠিকভাবে পূর্বাভাস দেওয়া যায়। +আমরা এই দূরত্বগুলো বর্গ করি কারণ দুটি প্রধান কারণ: -**লিস্ট-স্কয়ার রিগ্রেশন** সাধারণত এই ধরণের লাইন আঁকতে ব্যবহৃত হয়। 'লিস্ট-স্কয়ার' শব্দটি বোঝায় যে রিগ্রেশন লাইনের চারপাশের সব ডেটাপয়েন্ট স্কয়ার করা হয় এবং তারপর যোগ করা হয়। আদর্শভাবে, সেই চূড়ান্ত যোগফল যতটা সম্ভব ছোট হওয়া উচিত, কারণ আমরা কম সংখ্যক ত্রুটি বা `লিস্ট-স্কয়ার` চাই। +1. **দিকের উপর নয় মাত্রার ভিত্তিতে:** আমরা -৫ এর ত্রুটিকেও +৫ এর ত্রুটির মতোই বিবেচনা করতে চাই। বর্গ করলে সব মান ধনাত্মক হয়। +2. **আউটলায়ারদের জন্য বেশি শাস্তি:** বড় ত্রুটির বর্গ করলে তার ওজন বেশি হয়, ফলে লাইন দূরে থাকা পয়েন্টের কাছাকাছি থাকে। -আমরা এটি করি কারণ আমরা এমন একটি লাইন মডেল করতে চাই যার সব ডেটাপয়েন্ট থেকে সামগ্রিক দূরত্ব কম। আমরা টার্মগুলো যোগ করার আগে স্কয়ার করি কারণ আমরা এর মাত্রা নিয়ে চিন্তিত, দিক নিয়ে নয়। +তারপর আমরা সব বর্গ করা দূরত্ব একত্র করি। আমাদের লক্ষ্য হল এমন একটি নির্দিষ্ট লাইন খোঁজা যেখানে এই যোগফল সর্বনিম্ন থাকবে — তাই নাম "লিস্ট-স্কোয়ার্স"। -> **🧮 আমাকে গণিত দেখান** -> -> এই লাইন, যা _সেরা ফিটের লাইন_ নামে পরিচিত, [একটি সমীকরণ](https://en.wikipedia.org/wiki/Simple_linear_regression) দ্বারা প্রকাশ করা যেতে পারে: -> +> **🧮 আমাকে গাণিতিক সূত্র দেখাও** +> +> এই লাইন, যা _লাইন অফ বেস্ট ফিট_ বলা হয়, এক [সমীকরণের মাধ্যমে](https://en.wikipedia.org/wiki/Simple_linear_regression) প্রকাশ করা যায়: +> > ``` > Y = a + bX > ``` -> -> `X` হলো 'ব্যাখ্যামূলক ভেরিয়েবল'। `Y` হলো 'নির্ভরশীল ভেরিয়েবল'। লাইনের ঢাল হলো `b` এবং `a` হলো y-ইন্টারসেপ্ট, যা `X = 0` হলে `Y` এর মানকে বোঝায়। -> ->![ঢাল গণনা করুন](../../../../2-Regression/3-Linear/images/slope.png) -> -> প্রথমে, ঢাল `b` গণনা করুন। ইনফোগ্রাফিক: [জেন লুপার](https://twitter.com/jenlooper) -> -> অন্য কথায়, এবং আমাদের কুমড়ার ডেটার মূল প্রশ্নের দিকে ইঙ্গিত করে: "মাস অনুযায়ী প্রতি বাসেলে কুমড়ার দাম পূর্বাভাস দিন", `X` দামকে বোঝাবে এবং `Y` বিক্রয়ের মাসকে বোঝাবে। -> ->![সমীকরণ সম্পূর্ণ করুন](../../../../2-Regression/3-Linear/images/calculation.png) -> -> `Y` এর মান গণনা করুন। যদি আপনি প্রায় $4 দিচ্ছেন, তবে এটি অবশ্যই এপ্রিল! ইনফোগ্রাফিক: [জেন লুপার](https://twitter.com/jenlooper) -> -> লাইনের ঢাল গণনা করার জন্য যে গণিত প্রয়োজন তা ইন্টারসেপ্টের উপরও নির্ভরশীল, বা যেখানে `X = 0` হলে `Y` অবস্থিত। -> -> এই মানগুলোর গণনার পদ্ধতি [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) ওয়েবসাইটে পর্যবেক্ষণ করুন। এছাড়াও [এই লিস্ট-স্কয়ার ক্যালকুলেটর](https://www.mathsisfun.com/data/least-squares-calculator.html) দেখুন যাতে সংখ্যার মানগুলো লাইনে কীভাবে প্রভাব ফেলে তা দেখতে পারেন। - -## সম্পর্ক - -আরেকটি গুরুত্বপূর্ণ শব্দ হলো **করেলেশন কোইফিসিয়েন্ট** যা প্রদত্ত X এবং Y ভেরিয়েবলের মধ্যে সম্পর্ক বোঝায়। একটি স্ক্যাটারপ্লট ব্যবহার করে আপনি দ্রুত এই কোইফিসিয়েন্ট ভিজ্যুয়ালাইজ করতে পারেন। একটি প্লটে ডেটাপয়েন্টগুলো যদি একটি সুশৃঙ্খল লাইনে থাকে তবে উচ্চ করেলেশন থাকে, কিন্তু যদি ডেটাপয়েন্টগুলো X এবং Y এর মধ্যে এলোমেলোভাবে ছড়িয়ে থাকে তবে নিম্ন করেলেশন থাকে। - -একটি ভালো লিনিয়ার রিগ্রেশন মডেল হবে এমন একটি যার **লিস্ট-স্কয়ার রিগ্রেশন** পদ্ধতি ব্যবহার করে রিগ্রেশন লাইনের সাথে উচ্চ (১ এর কাছাকাছি, ০ এর চেয়ে বেশি) করেলেশন কোইফিসিয়েন্ট থাকে। - -✅ এই পাঠের সাথে থাকা নোটবুক চালান এবং মাস থেকে দাম সম্পর্কিত স্ক্যাটারপ্লট দেখুন। কুমড়া বিক্রির মাস থেকে দাম সম্পর্কিত ডেটা আপনার ভিজ্যুয়াল ব্যাখ্যা অনুযায়ী উচ্চ বা নিম্ন করেলেশন আছে বলে মনে হয়? যদি আপনি `Month` এর পরিবর্তে আরও সূক্ষ্ম পরিমাপ ব্যবহার করেন, যেমন *বছরের দিন* (অর্থাৎ বছরের শুরু থেকে দিন সংখ্যা), তাহলে কি এটি পরিবর্তিত হয়? - -নিচের কোডে, আমরা ধরে নিচ্ছি যে আমরা ডেটা পরিষ্কার করেছি এবং একটি ডেটা ফ্রেম পেয়েছি যার নাম `new_pumpkins`, যা নিম্নরূপ: - -ID | Month | DayOfYear | Variety | City | Package | Low Price | High Price | Price ----|-------|-----------|---------|------|---------|-----------|------------|------- -70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 -71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 -72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 -73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 17.0 | 17.0 | 15.454545 -74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 - -> ডেটা পরিষ্কার করার কোড [`notebook.ipynb`](../../../../2-Regression/3-Linear/notebook.ipynb) এ উপলব্ধ। আমরা পূর্ববর্তী পাঠের মতো একই পরিষ্কার করার ধাপ সম্পন্ন করেছি এবং নিম্নলিখিত এক্সপ্রেশন ব্যবহার করে `DayOfYear` কলাম গণনা করেছি: +> +> `X` হল 'ব্যাখ্যামূলক ভেরিয়েবল'। `Y` হল 'নির্ভরশীল ভেরিয়েবল'। লাইনের ঢাল `b` এবং `a` হল y-ইন্টারসেপ্ট যা নির্দেশ করে যখন `X = 0` তখন `Y` এর মান কত। +> +>![calculate the slope](../../../../translated_images/bn/slope.f3c9d5910ddbfcf9.webp) +> +> প্রথমে, ঢাল `b` হিসাব করুন। ইনফোগ্রাফিক [জেন লুপার](https://twitter.com/jenlooper) দ্বারা +> +> অন্য কথায়, আমাদের কুমড়ো ডেটার প্রশ্ন অনুযায়ী: "মাস অনুযায়ী প্রতি বাসেলে কুমড়োর দাম অনুমান করুন", এখানে `X` হবে দাম এবং `Y` হবে বিক্রয়ের মাস। +> +>![complete the equation](../../../../translated_images/bn/calculation.a209813050a1ddb1.webp) +> +> Y এর মান হিসাব করুন। যদি আপনি প্রায় $৪ প্রদান করছেন, তবে এটা অবশ্যই এপ্রিল! ইনফোগ্রাফিক [জেন লুপার](https://twitter.com/jenlooper) দ্বারা +> +> গাণিতিক সূত্রটি লাইন এর ঢাল দেখাতে হবে, যা নির্ভর করে y-ইন্টারসেপ্টের উপর, অর্থাৎ `X = 0` হলে `Y` কোথায় থাকে। +> +> আপনি এই মানগুলোর গণনার পদ্ধতি এই [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) ওয়েবসাইটে দেখতে পারেন। সাথে এই [Least-squares calculator](https://www.mathsisfun.com/data/least-squares-calculator.html) দেখুন সংখ্যাগুলোর মান কীভাবে লাইনে প্রভাব ফেলে। + +## সহসंबন্ধ (Correlation) + +আরেকটি শব্দ যা বুঝতে হবে তা হল X এবং Y এর মধ্যে **করেলেশন সহগ**। একটি scatterplot ব্যবহার করে আপনি দ্রুত এই সহগটি দেখতে পারেন। একটি স্ক্যাটারপ্লটে পয়েন্টগুলো সুসজ্জিত রেখায় থাকলে করেলেশন বেশি, আর যেসব পয়েন্ট এলোমেলো ছড়িয়ে থাকে সেসবের করেলেশন কম। + +একটি ভালো লিনিয়ার রিগ্রেশন মডেল হবে যার লিস্ট-স্কোয়ার্স রিগ্রেশন ব্যবহারের মাধ্যমে করেলেশন সহগ বেশি (0 এর থেকে 1 এর দিকে) হবে। + +✅ এই পাঠের সাথে থাকা নোটবুক চালিয়ে দেখুন এবং মাস এবং দাম এর scatterplot টি দেখুন। আপনার ভিজুয়াল ইন্টারপ্রিটেশন অনুযায়ী কি মাস থেকে দাম এর ডেটার উপর করেলেশন বেশি নাকি কম বলে মনে হচ্ছে? আপনি কি পেতে পারেন আরও সূক্ষ্ম মাপ যেমন *বছরের দিন* (অর্থাৎ বছরের শুরু থেকে কততম দিন)? + +নীচের কোডে, আমরা ধরে নিচ্ছি যে ডেটা আমরা ক্লিন করেছি এবং একটি `new_pumpkins` নামের ডেটাফ্রেম পেয়েছি, যা নিম্নরূপ: + +ID | Month | DayOfYear | Variety | City | Package | Low Price | High Price | Price +---|-------|-----------|---------|------|---------|-----------|------------|------- +70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 +71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 +72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 +73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 17.0 | 17.0 | 15.454545 +74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 + +> ডেটা ক্লিন করার কোড [`notebook.ipynb`](notebook.ipynb) এ পাওয়া যাবে। আমরা আগের পাঠের মতো ডেটা ক্লিনিং করেছেন এবং নিম্নলিখিত এক্সপ্রেশন দিয়ে `DayOfYear` কলাম হিসাব করেছি: ```python day_of_year = pd.to_datetime(pumpkins['Date']).apply(lambda dt: (dt-datetime(dt.year,1,1)).days) ``` + +এখন যেহেতু আপনি লিনিয়ার রিগ্রেশনের গাণিতিক ভিত্তি বুঝে ফেলেছেন, চলুন একটি রিগ্রেশন মডেল তৈরি করি যা পূর্বাভাস দেবে কোন কুমড়োর প্যাকেজটির দাম সবচেয়ে ভালো হবে। কেউ যদি ছুটির মেলার জন্য কুমড়ো কিনতে চান, তারা এই তথ্য ব্যবহার করে ক্রয় পরিকল্পনা অপটিমাইজ করতে পারবেন। -এখন আপনি লিনিয়ার রিগ্রেশনের পেছনের গণিত সম্পর্কে ধারণা পেয়েছেন, চলুন একটি রিগ্রেশন মডেল তৈরি করি যাতে আমরা পূর্বাভাস দিতে পারি কোন কুমড়ার প্যাকেজের দাম সবচেয়ে ভালো হবে। কেউ যদি ছুটির দিনে কুমড়ার প্যাচের জন্য কুমড়া কিনতে চান, তাহলে এই তথ্য তাদের কুমড়ার প্যাকেজ কেনার ক্ষেত্রে অপ্টিমাইজ করতে সাহায্য করবে। +## সহসংবাদ খোঁজা -## করেলেশন খুঁজে বের করা +[![ML for beginners - Looking for Correlation: The Key to Linear Regression](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "ML for beginners - Looking for Correlation: The Key to Linear Regression") -[![করেলেশন খুঁজে বের করা: লিনিয়ার রিগ্রেশনের চাবিকাঠি](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "করেলেশন খুঁজে বের করা: লিনিয়ার রিগ্রেশনের চাবিকাঠি") +> 🎥 উপরের ছবিতে ক্লিক করুন করেলেশন সম্পর্কে ছোট ভিডিও ওভারভিউ এর জন্য। -> 🎥 উপরের ছবিতে ক্লিক করুন করেলেশন সম্পর্কে সংক্ষিপ্ত ভিডিও দেখার জন্য। +গত পাঠ থেকে আপনি নিশ্চয়ই দেখেছেন ভিন্ন ভিন্ন মাসে গড় দাম কেমন লাগে: -পূর্ববর্তী পাঠ থেকে আপনি সম্ভবত দেখেছেন যে বিভিন্ন মাসের গড় দাম নিম্নরূপ দেখায়: +Average price by month -মাস অনুযায়ী গড় দাম +এটি নির্দেশ করে কিছু করেলেশন থাকবে, এবং আমরা চেষ্টা করতে পারি লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ করতে যা `Month` এবং `Price` বা `DayOfYear` এবং `Price` এর মধ্যকার সম্পর্ক অনুমান করবে। নিচে scatterplot আছে যা `DayOfYear` এবং `Price` এর সম্পর্ক দেখায়: -এটি ইঙ্গিত করে যে কিছু করেলেশন থাকতে পারে, এবং আমরা `Month` এবং `Price` এর মধ্যে সম্পর্ক বা `DayOfYear` এবং `Price` এর মধ্যে সম্পর্ক পূর্বাভাস দিতে লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ দিতে চেষ্টা করতে পারি। এখানে একটি স্ক্যাটারপ্লট দেখানো হয়েছে যা পরবর্তী সম্পর্কটি দেখায়: +Scatter plot of Price vs. Day of Year -দাম বনাম বছরের দিন স্ক্যাটারপ্লট - -চলুন `corr` ফাংশন ব্যবহার করে করেলেশন আছে কিনা দেখি: +চলুন দেখি `corr` ফাংশন দিয়ে করেলেশন কেমন: ```python print(new_pumpkins['Month'].corr(new_pumpkins['Price'])) print(new_pumpkins['DayOfYear'].corr(new_pumpkins['Price'])) ``` - -দেখা যাচ্ছে করেলেশন বেশ ছোট, `Month` অনুযায়ী -0.15 এবং `DayOfMonth` অনুযায়ী -0.17, তবে অন্য একটি গুরুত্বপূর্ণ সম্পর্ক থাকতে পারে। মনে হচ্ছে বিভিন্ন কুমড়ার প্রজাতির সাথে বিভিন্ন দাম ক্লাস্টার রয়েছে। এই অনুমান নিশ্চিত করতে, চলুন প্রতিটি কুমড়ার ক্যাটাগরি আলাদা রঙে প্লট করি। `scatter` প্লটিং ফাংশনে `ax` প্যারামিটার পাস করে আমরা সব পয়েন্ট একই গ্রাফে প্লট করতে পারি: + +করেলেশন সম্ভবত খুব বেশি নয়, মাস অনুসারে প্রায় -০.১৫ এবং `DayOfMonth` অনুসারে -০.১৭, কিন্তু হতে পারে অন্য গুরুত্বপূর্ণ সম্পর্ক আছে। মনে হচ্ছে দাম বিভিন্ন কুমড়ো প্রকার অনুসারে আলাদা আলাদা ক্লাস্টারে বিভক্ত। এই অনুমান নিশ্চিত করতে, প্রতিটি কুমড়ো ধরণ একটি আলাদা রঙে প্লট করি। `scatter` ফাংশনে `ax` প্যারামিটার দিয়ে সব পয়েন্ট একই গ্রাফে দেখাতে পারি: ```python ax=None @@ -127,75 +139,75 @@ for i,var in enumerate(new_pumpkins['Variety'].unique()): df = new_pumpkins[new_pumpkins['Variety']==var] ax = df.plot.scatter('DayOfYear','Price',ax=ax,c=colors[i],label=var) ``` + +Scatter plot of Price vs. Day of Year -দাম বনাম বছরের দিন স্ক্যাটারপ্লট - -আমাদের তদন্ত ইঙ্গিত করে যে প্রজাতি বিক্রয়ের তারিখের চেয়ে সামগ্রিক দামের উপর বেশি প্রভাব ফেলে। আমরা এটি একটি বার গ্রাফের মাধ্যমে দেখতে পারি: +আমাদের তদন্তে দেখা যায়, কুমড়োর প্রকার দামকে বিক্রয় তারিখের চেয়ে বেশি প্রভাবিত করে। এটি একটি বার গ্রাফ থেকে স্পষ্ট: ```python new_pumpkins.groupby('Variety')['Price'].mean().plot(kind='bar') ``` + +Bar graph of price vs variety -প্রজাতি অনুযায়ী দাম বার গ্রাফ - -চলুন আপাতত শুধুমাত্র একটি কুমড়ার প্রজাতি, 'পাই টাইপ', এর উপর মনোযোগ দিই এবং দেখি তারিখের দাম উপর কী প্রভাব ফেলে: +এখন আমরা শুধুমাত্র একটি কুমড়ো প্রকারের দিকে মনোযোগ দিবো, 'pie type', এবং দেখি বিক্রয় তারিখের মূল্যতে কী প্রভাব: ```python pie_pumpkins = new_pumpkins[new_pumpkins['Variety']=='PIE TYPE'] pie_pumpkins.plot.scatter('DayOfYear','Price') ``` -দাম বনাম বছরের দিন স্ক্যাটারপ্লট +Scatter plot of Price vs. Day of Year -যদি আমরা এখন `corr` ফাংশন ব্যবহার করে `Price` এবং `DayOfYear` এর মধ্যে করেলেশন গণনা করি, আমরা কিছুটা `-0.27` পাব - যা নির্দেশ করে যে একটি পূর্বাভাস মডেল প্রশিক্ষণ দেওয়া যুক্তিযুক্ত। +`Price` এবং `DayOfYear` এর করেলেশন `corr` ফাংশন দিয়ে হিসাব করলে প্রায় `-0.27` পাওয়া যাবে - যা অর্থ দেয়, একটি পূর্বাভাস মডেল প্রশিক্ষণ করাটা যুক্তিসঙ্গত। -> একটি লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ দেওয়ার আগে, আমাদের ডেটা পরিষ্কার করা নিশ্চিত করা গুরুত্বপূর্ণ। লিনিয়ার রিগ্রেশন মিসিং ভ্যালু নিয়ে ভালো কাজ করে না, তাই সব খালি সেলগুলো সরিয়ে ফেলা যুক্তিযুক্ত: +> লিনিয়ার রিগ্রেশন মডেল ট্রেনিং করার আগে, নিশ্চিত হওয়া জরুরি যে ডেটা ক্লিন। লিনিয়ার রিগ্রেশন মিসিং ভ্যালু সহ ভালো কাজ করে না, তাই সমস্ত খালি সেল সরিয়ে ফেলা ভালো: ```python pie_pumpkins.dropna(inplace=True) pie_pumpkins.info() ``` + +আরেকটি উপায় হলো, খালি মানগুলো সংশ্লিষ্ট কলামের গড় মান দিয়ে পূরণ করা। -অন্য একটি পদ্ধতি হলো খালি ভ্যালুগুলো সংশ্লিষ্ট কলামের গড় মান দিয়ে পূরণ করা। +## সহজ লিনিয়ার রিগ্রেশন -## সাধারণ লিনিয়ার রিগ্রেশন +[![ML for beginners - Linear and Polynomial Regression using Scikit-learn](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "ML for beginners - Linear and Polynomial Regression using Scikit-learn") -[![স্কিকিট-লার্ন ব্যবহার করে লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "স্কিকিট-লার্ন ব্যবহার করে লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন") +> 🎥 উপরের ছবিতে ক্লিক করুন লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন সম্পর্কে ছোট ভিডিও ওভারভিউ এর জন্য। -> 🎥 উপরের ছবিতে ক্লিক করুন লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন সম্পর্কে সংক্ষিপ্ত ভিডিও দেখার জন্য। - -আমাদের লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ দিতে আমরা **স্কিকিট-লার্ন** লাইব্রেরি ব্যবহার করব। +আমরা আমাদের লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণের জন্য **Scikit-learn** লাইব্রেরি ব্যবহার করব। ```python from sklearn.linear_model import LinearRegression from sklearn.metrics import mean_squared_error from sklearn.model_selection import train_test_split ``` - -আমরা ইনপুট মান (ফিচার) এবং প্রত্যাশিত আউটপুট (লেবেল) আলাদা নাম্পাই অ্যারেতে ভাগ করে শুরু করি: + +আমরা প্রথমে ইনপুট মান (ফিচার) এবং প্রত্যাশিত আউটপুট (লেবেল) আলাদা নাম্পাই অ্যারেতে বিভক্ত করব: ```python X = pie_pumpkins['DayOfYear'].to_numpy().reshape(-1,1) y = pie_pumpkins['Price'] ``` + +> লক্ষ্য করুন, ইনপুট ডেটাকে `reshape` করতে হয়েছে যাতে লিনিয়ার রিগ্রেশন প্যাকেজ এটি সঠিকভাবে বুঝতে পারে। লিনিয়ার রিগ্রেশন ২-ডি অ্যারে প্রত্যাশা করে, যেখানে অ্যারের প্রতিটি সারি ইনপুট ফিচারের ভেক্টর। আমাদের ক্ষেত্রে, যেহেতু কেবল একটি ইনপুট আছে, তাই N x 1 আকৃতির অ্যারে প্রয়োজন, যেখানে N ডেটাসেটের আকার। -> লক্ষ্য করুন যে আমরা ইনপুট ডেটার উপর `reshape` করতে বাধ্য হয়েছি যাতে লিনিয়ার রিগ্রেশন প্যাকেজ এটি সঠিকভাবে বুঝতে পারে। লিনিয়ার রিগ্রেশন একটি 2D-অ্যারে ইনপুট হিসেবে আশা করে, যেখানে অ্যারেটির প্রতিটি সারি ইনপুট ফিচারের একটি ভেক্টরের সাথে সম্পর্কিত। আমাদের ক্ষেত্রে, যেহেতু আমাদের শুধুমাত্র একটি ইনপুট আছে - আমাদের একটি N×1 আকারের অ্যারে প্রয়োজন, যেখানে N হলো ডেটাসেটের আকার। - -তারপর, আমরা ডেটাকে ট্রেন এবং টেস্ট ডেটাসেটে ভাগ করি, যাতে প্রশিক্ষণের পরে আমাদের মডেল যাচাই করতে পারি: +তারপর, আমাদের ডেটা শিক্ষণ এবং পরীক্ষার জন্য ভাগ করতে হবে, যাতে মডেল প্রশিক্ষণের পর আমরা এটি যাচাই করতে পারি: ```python X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ``` - -অবশেষে, আসল লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ দিতে মাত্র দুটি লাইন কোড লাগে। আমরা `LinearRegression` অবজেক্ট সংজ্ঞায়িত করি এবং `fit` পদ্ধতি ব্যবহার করে আমাদের ডেটার সাথে এটি ফিট করি: + +শেষে, প্রকৃত লিনিয়ার রিগ্রেশন মডেল প্রশিক্ষণ মাত্র দুটি কোড লাইনে হয়। আমরা `LinearRegression` অবজেক্ট ডিফাইন করি, এবং `fit` পদ্ধতি ব্যবহার করে ডেটার সাথে ফিট করি: ```python lin_reg = LinearRegression() lin_reg.fit(X_train,y_train) ``` + +`LinearRegression` অবজেক্টটি `fit` করার পরে রিগ্রেশনের সমস্ত কোএফিসিয়েন্ট থাকে, যা `.coef_` প্রপার্টি ব্যবহার করে অ্যাক্সেস করা যায়। আমাদের ক্ষেত্রে, কেবল একটি কোএফিসিয়েন্ট আছে, যা প্রায় `-0.017` হওয়া উচিত। এর মানে হল দাম কিছুটা হ্রাস পাচ্ছে সময়ের সাথে, কিন্তু খুব বেশি নয়, প্রায় প্রতি দিন ২ সেন্টের মতো। আমরা রিগ্রেশনের ক্রসিং পয়েন্ট Y-অক্ষের সাথে `lin_reg.intercept_` ব্যবহার করে অ্যাক্সেস করতে পারি - এটি আমাদের ক্ষেত্রে প্রায় `21` হবে, যা বছরের শুরুতে মূল্যের নির্দেশ করে। -`LinearRegression` অবজেক্টটি `fit` করার পরে রিগ্রেশনের সব কোইফিসিয়েন্ট ধারণ করে, যা `.coef_` প্রপার্টি ব্যবহার করে অ্যাক্সেস করা যায়। আমাদের ক্ষেত্রে, এখানে শুধুমাত্র একটি কোইফিসিয়েন্ট আছে, যা `-0.017` এর কাছাকাছি হওয়া উচিত। এটি নির্দেশ করে যে সময়ের সাথে দাম কিছুটা কমে, তবে খুব বেশি নয়, প্রতিদিন প্রায় ২ সেন্ট। আমরা রিগ্রেশনের Y-অক্ষের সাথে ইন্টারসেকশন পয়েন্টও অ্যাক্সেস করতে পারি `lin_reg.intercept_` ব্যবহার করে - এটি আমাদের ক্ষেত্রে প্রায় `21` হবে, যা বছরের শুরুতে দাম নির্দেশ করে। - -আমাদের মডেল কতটা সঠিক তা দেখতে, আমরা টেস্ট ডেটাসেটে দাম পূর্বাভাস দিতে পারি এবং তারপর আমাদের পূর্বাভাস প্রত্যাশিত মানের সাথে কতটা কাছাকাছি তা পরিমাপ করতে পারি। এটি মীন স্কয়ার এরর (MSE) মেট্রিক্স ব্যবহার করে করা যায়, যা প্রত্যাশিত এবং পূর্বাভাসিত মানের মধ্যে সব স্কয়ার পার্থক্যের গড়। +আমাদের মডেল কতটা সঠিক তা দেখার জন্য, আমরা টেস্ট ডেটাসেটে দাম প্রেডিক্ট করতে পারি, এবং তারপর আমাদের পূর্বাভাসগুলি প্রত্যাশিত মানের সাথে কতটা কাছাকাছি তা পরিমাপ করি। এটি করা যায় mean square error (MSE) মেট্রিক্স ব্যবহার করে, যা প্রত্যাশিত এবং পূর্বাভাসিত মানগুলির মধ্যে সমগ্র বর্গাকার পার্থক্যের গড়। ```python pred = lin_reg.predict(X_test) @@ -203,36 +215,40 @@ pred = lin_reg.predict(X_test) mse = np.sqrt(mean_squared_error(y_test,pred)) print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') ``` -আমাদের ত্রুটি প্রায় ২টি পয়েন্টের আশেপাশে, যা প্রায় ১৭%। খুব একটা ভালো নয়। মডেলের গুণমানের আরেকটি সূচক হলো **coefficient of determination**, যা এইভাবে পাওয়া যায়: + + +আমাদের ত্রুটি প্রায় ২ পয়েন্ট, যা ~১৭% এর মতো। খুব ভালো নয়। মডেলের গুণমানের আরেকটি সূচক হল **coefficient of determination**, যা এভাবে পাওয়া যায়: ```python score = lin_reg.score(X_train,y_train) print('Model determination: ', score) -``` -যদি মান ০ হয়, তাহলে এর অর্থ হলো মডেল ইনপুট ডেটাকে বিবেচনায় নেয় না এবং এটি *সবচেয়ে খারাপ লিনিয়ার প্রেডিক্টর* হিসেবে কাজ করে, যা কেবলমাত্র ফলাফলের গড় মান। মান ১ হলে বোঝায় যে আমরা প্রত্যাশিত সমস্ত আউটপুট নিখুঁতভাবে পূর্বানুমান করতে পারি। আমাদের ক্ষেত্রে, coefficient প্রায় ০.০৬, যা বেশ কম। +``` + -আমরা টেস্ট ডেটা এবং রিগ্রেশন লাইনের সাথে একটি গ্রাফ আঁকতে পারি, যাতে আমাদের ক্ষেত্রে রিগ্রেশন কীভাবে কাজ করছে তা আরও ভালোভাবে বোঝা যায়: +যদি মান ০ হয়, এর অর্থ মডেল ইনপুট তথ্য বিবেচনায় নেয় না, এবং *worst linear predictor* হিসেবে কাজ করে, যা কেবল ফলাফলের গড় মান। ১ এর মানে হল আমরা সব প্রত্যাশিত আউটপুট নিখুঁতভাবে প্রেডিক্ট করতে পারি। আমাদের ক্ষেত্রে, কোএফিসিয়েন্ট প্রায় ০.০৬, যা বেশ কম। + +আমরা টেস্ট ডেটা এবং রিগ্রেশন লাইনের গ্রাফও আঁকতে পারি যেন ভালভাবে বুঝতে পারি কিভাবে রিগ্রেশন কাজ করে আমাদের ক্ষেত্রে: ```python plt.scatter(X_test,y_test) plt.plot(X_test,pred) -``` +``` -লিনিয়ার রিগ্রেশন +Linear regression -## পলিনোমিয়াল রিগ্রেশন +## Polynomial Regression -লিনিয়ার রিগ্রেশনের আরেকটি ধরন হলো পলিনোমিয়াল রিগ্রেশন। কখনও কখনও ভেরিয়েবলগুলোর মধ্যে একটি সরল সম্পর্ক থাকে - যেমন, কুমড়ার আয়তন যত বড়, দাম তত বেশি - কিন্তু কখনও কখনও এই সম্পর্কগুলোকে একটি সমতল বা সরল রেখা হিসেবে চিত্রিত করা যায় না। +রৈখিক রিগ্রেশনের আরেকটি ধরন হল Polynomial Regression। মাঝে মাঝে ভেরিয়েবলগুলোর মধ্যে সরলরৈখিক সম্পর্ক থাকে - যেমন ভলিউমে বড় পাম্পকিনের দাম বেশি হয় - কিন্তু কখনো কখনো এই সম্পর্কগুলো প্লেন বা সরলরেখা হিসেবে ছবি করা যায় না। -✅ এখানে [কিছু উদাহরণ](https://online.stat.psu.edu/stat501/lesson/9/9.8) দেওয়া হলো, যেখানে পলিনোমিয়াল রিগ্রেশন ব্যবহার করা যেতে পারে। +✅ এখানে [আরো কিছু উদাহরণ](https://online.stat.psu.edu/stat501/lesson/9/9.8) আছে যেখানে Polynomial Regression ব্যবহার করা যেতে পারে। -তারিখ এবং দামের মধ্যে সম্পর্কটি আবার দেখুন। এই স্ক্যাটারপ্লটটি কি সরল রেখা দিয়ে বিশ্লেষণ করা উচিত বলে মনে হয়? দামের ওঠানামা কি সম্ভব নয়? এই ক্ষেত্রে, আপনি পলিনোমিয়াল রিগ্রেশন চেষ্টা করতে পারেন। +আবার Date এবং Price এর সম্পর্ক দেখুন। এই scatterplot কি অবশ্যই সরলরেখা দ্বারা বিশ্লেষণ করা উচিত বলে মনে হয়? দাম কি ওঠানামা করতে পারে না? এই ক্ষেত্রে, আপনি polynomial regression চেষ্টা করতে পারেন। -✅ পলিনোমিয়াল হলো গাণিতিক প্রকাশ, যা এক বা একাধিক ভেরিয়েবল এবং কোইফিসিয়েন্ট নিয়ে গঠিত হতে পারে। +✅ পলিনোমিয়াল হলো গাণিতিক প্রকাশ যা এক বা একাধিক ভেরিয়েবল ও কোএফিসিয়েন্ট নিয়ে গঠিত হতে পারে। -পলিনোমিয়াল রিগ্রেশন একটি বাঁকানো রেখা তৈরি করে, যা অ-রৈখিক ডেটার সাথে আরও ভালোভাবে মানানসই হয়। আমাদের ক্ষেত্রে, যদি ইনপুট ডেটায় একটি বর্গ `DayOfYear` ভেরিয়েবল যোগ করি, তাহলে আমরা একটি প্যারাবোলিক কার্ভ দিয়ে আমাদের ডেটাকে মানানসই করতে পারব, যার একটি নির্দিষ্ট বিন্দুতে সর্বনিম্ন মান থাকবে। +Polynomial Regression একটি বাকা রেখা তৈরি করে যাতে নন-লিনিয়ার ডেটা ভালো ফিট হয়। আমাদের ক্ষেত্রে, যদি ইনপুট ডেটাতে squared `DayOfYear` ভেরিয়েবল যোগ করি, তাহলে আমরা আমাদের ডেটা একটি ধারার মতো বক্ররেখার সাথে ফিট করতে পারব যা বছরের কোন এক বিন্দুতে মিনিমাম হবে। -Scikit-learn একটি সহায়ক [pipeline API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) অন্তর্ভুক্ত করে, যা ডেটা প্রসেসিংয়ের বিভিন্ন ধাপ একত্রিত করতে সাহায্য করে। একটি **pipeline** হলো **estimators**-এর একটি চেইন। আমাদের ক্ষেত্রে, আমরা একটি pipeline তৈরি করব, যা প্রথমে মডেলে পলিনোমিয়াল ফিচার যোগ করবে এবং তারপর রিগ্রেশন প্রশিক্ষণ দেবে: +Scikit-learn এর [pipeline API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) ব্যবহার করে আমরা বিভিন্ন ডেটা প্রক্রিয়াকরণের ধাপ একত্রিত করতে পারি। একটি **pipeline** হলো **estimators** এর একটি শৃঙ্খল। আমাদের ক্ষেত্রে, আমরা একটি pipeline তৈরি করব যা প্রথমে polynomial ফিচার তৈরি করে, তারপরে রিগ্রেশন ট্রেন করে: ```python from sklearn.preprocessing import PolynomialFeatures @@ -241,62 +257,65 @@ from sklearn.pipeline import make_pipeline pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) -``` +``` + -`PolynomialFeatures(2)` ব্যবহার করার অর্থ হলো আমরা ইনপুট ডেটা থেকে সমস্ত দ্বিতীয়-ডিগ্রির পলিনোমিয়াল অন্তর্ভুক্ত করব। আমাদের ক্ষেত্রে এটি কেবল `DayOfYear`2 বোঝাবে, তবে দুটি ইনপুট ভেরিয়েবল X এবং Y থাকলে এটি X2, XY এবং Y2 যোগ করবে। আমরা চাইলে আরও উচ্চ ডিগ্রির পলিনোমিয়াল ব্যবহার করতে পারি। +`PolynomialFeatures(2)` ব্যবহার করার মানে হল আমরা ইনপুট ডেটার সব দ্বিতীয়-ডিগ্রী পলিনোমিয়াল ফিচার যুক্ত করব। আমাদের ক্ষেত্রে এটি শুধু `DayOfYear`2, কিন্তু যদি ইনপুটে দুটি ভেরিয়েবল X এবং Y থাকে, তাহলে এটি X2, XY এবং Y2 যোগ করবে। আমরা চাইলে উচ্চতর ডিগ্রী পলিনোমিয়ালও ব্যবহার করতে পারি। -পাইপলাইনগুলোকে মূল `LinearRegression` অবজেক্টের মতোই ব্যবহার করা যায়, অর্থাৎ আমরা পাইপলাইনটিকে `fit` করতে পারি এবং তারপর `predict` ব্যবহার করে পূর্বানুমানের ফলাফল পেতে পারি। এখানে টেস্ট ডেটা এবং আনুমানিক কার্ভ দেখানো হলো: +Pipeline মূল `LinearRegression` অবজেক্টের মতো ব্যবহার করা যাবে, যেমন আমরা pipeline কে `fit` করতে পারি, এবং তারপর `predict` ব্যবহার করে ফলাফল পেতে পারি। নিচের গ্রাফে টেস্ট ডেটা আর অ্যাপ্রক্সিমেশন কুভ দেখানো হয়েছে: -পলিনোমিয়াল রিগ্রেশন +Polynomial regression -পলিনোমিয়াল রিগ্রেশন ব্যবহার করে আমরা সামান্য কম MSE এবং সামান্য বেশি determination পেতে পারি, তবে তা উল্লেখযোগ্য নয়। আমাদের আরও ফিচার বিবেচনায় নিতে হবে! +Polynomial Regression ব্যবহার করলে আমরা কিছুটা কম MSE এবং বেশি determination পাই, তবে উল্লেখযোগ্য নয়। আমাদের অন্য ফিচারগুলোও বিবেচনায় নিতে হবে! -> আপনি দেখতে পাবেন যে হ্যালোউইনের আশেপাশে কুমড়ার সর্বনিম্ন দাম দেখা যায়। আপনি এটি কীভাবে ব্যাখ্যা করবেন? +> আপনি লক্ষ্য করতে পারেন যে হ্যালোউইনের সময় পাম্পকিনের দাম ন্যূনতম পর্যায়ে থাকে। আপনি এই ঘটনা কীভাবে ব্যাখ্যা করবেন? -🎃 অভিনন্দন, আপনি একটি মডেল তৈরি করেছেন যা পাই কুমড়ার দাম পূর্বানুমান করতে সাহায্য করতে পারে। আপনি সম্ভবত একই পদ্ধতি সমস্ত কুমড়ার প্রকারের জন্য পুনরাবৃত্তি করতে পারেন, তবে এটি বেশ ক্লান্তিকর হবে। এখন চলুন শিখি কীভাবে মডেলে কুমড়ার বৈচিত্র্যকে বিবেচনায় নেওয়া যায়! +🎃 অভিনন্দন, আপনি একটি মডেল তৈরি করেছেন যা পাই পাম্পকিনের দাম পূর্বাভাস দিতে পারে। সম্ভবত আপনি একই পদ্ধতি অন্য সব ধরনের পাম্পকিনের জন্যও অনুসরণ করতে পারেন, তবে সেটা ক্লান্তিকর হবে। চলুন এখন শিখি কিভাবে পাম্পকিনের ভ্যারাইটি আমাদের মডেলে বিবেচনা করা যায়! -## শ্রেণীবদ্ধ ফিচার +## Categorical Features -আদর্শ জগতে, আমরা একই মডেল ব্যবহার করে বিভিন্ন কুমড়ার প্রকারের দাম পূর্বানুমান করতে চাই। তবে, `Variety` কলামটি `Month`-এর মতো কলাম থেকে কিছুটা আলাদা, কারণ এতে অ-সংখ্যাসূচক মান রয়েছে। এই ধরনের কলামগুলোকে **শ্রেণীবদ্ধ (categorical)** বলা হয়। +আদর্শ জগতে, আমরা চাই একই মডেল ব্যবহার করে বিভিন্ন পাম্পকিন ভ্যারাইটির দাম পূর্বাভাস দিতে পারি। কিন্তু `Variety` কলামটি `Month` এর মত নয়, কারণ এতে অ-সংখ্যাত্মক মান থাকে। এমন কলামগুলোকে **categorical** বলা হয়। -[![শ্রেণীবদ্ধ ফিচার নিয়ে লিনিয়ার রিগ্রেশন](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "শ্রেণীবদ্ধ ফিচার নিয়ে লিনিয়ার রিগ্রেশন") +[![ML for beginners - Categorical Feature Predictions with Linear Regression](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "ML for beginners - Categorical Feature Predictions with Linear Regression") -> 🎥 উপরের ছবিতে ক্লিক করে শ্রেণীবদ্ধ ফিচার ব্যবহারের একটি সংক্ষিপ্ত ভিডিও দেখুন। +> 🎥 উপরের ছবিতে ক্লিক করে ক্যাটেগরিক্যাল ফিচার ব্যবহার করার একটা ছোট ভিডিও দেখতে পারেন। -এখানে আপনি দেখতে পাচ্ছেন কীভাবে গড় দাম বৈচিত্র্যের উপর নির্ভর করে: +এখানে আপনি দেখতে পাচ্ছেন কিভাবে গড় দাম ভ্যারাইটির ওপর নির্ভর করে: -বৈচিত্র্য অনুযায়ী গড় দাম +Average price by variety -বৈচিত্র্যকে বিবেচনায় নিতে, প্রথমে আমাদের এটিকে সংখ্যাসূচক রূপে রূপান্তর করতে হবে, বা **এনকোড** করতে হবে। এটি করার কয়েকটি উপায় রয়েছে: +ভ্যারাইটিকে বিবেচনায় নিতে প্রথমে এটিকে সংখ্যাত্মক ফর্মে রূপান্তর করতে হবে, বা **encode** করতে হবে। আমরা এটি করার কয়েকটি পদ্ধতি ব্যবহার করতে পারি: -* সহজ **সংখ্যাসূচক এনকোডিং** একটি টেবিল তৈরি করবে, যেখানে বিভিন্ন বৈচিত্র্য থাকবে, এবং তারপর বৈচিত্র্যের নামকে সেই টেবিলের একটি সূচক দিয়ে প্রতিস্থাপন করবে। এটি লিনিয়ার রিগ্রেশনের জন্য সেরা পদ্ধতি নয়, কারণ লিনিয়ার রিগ্রেশন সূচকের প্রকৃত সংখ্যাসূচক মান গ্রহণ করে এবং এটি ফলাফলে যোগ করে, একটি গুণফল দ্বারা গুণিত করে। আমাদের ক্ষেত্রে, সূচক সংখ্যার সাথে দামের সম্পর্ক স্পষ্টতই অ-রৈখিক, এমনকি যদি আমরা নিশ্চিত করি যে সূচকগুলো নির্দিষ্টভাবে সাজানো হয়েছে। -* **ওয়ান-হট এনকোডিং** `Variety` কলামটিকে ৪টি ভিন্ন কলামে প্রতিস্থাপন করবে, প্রতিটি বৈচিত্র্যের জন্য একটি করে। প্রতিটি কলামে `1` থাকবে যদি সংশ্লিষ্ট সারিটি একটি নির্দিষ্ট বৈচিত্র্যের হয়, অন্যথায় `0` থাকবে। এর মানে হলো লিনিয়ার রিগ্রেশনে ৪টি ভিন্ন কোইফিসিয়েন্ট থাকবে, প্রতিটি কুমড়ার বৈচিত্র্যের জন্য একটি করে, যা সেই নির্দিষ্ট বৈচিত্র্যের জন্য "প্রাথমিক দাম" (বা বরং "অতিরিক্ত দাম") নির্ধারণ করবে। +* সাধারণ **numeric encoding** একটি ভ্যারাইটির তালিকা তৈরি করে, এবং তারপর আলাদা ভ্যারাইটির নামের পরিবর্তে তালিকার ইন্ডেক্স যোগ করে। এটি লিনিয়ার রিগ্রেশনের জন্য ভাল নয়, কারণ লিনিয়ার রিগ্রেশন ইনডেক্সের সংখ্যাটিকে গণ্য করে ফলাফলে যোগ করে কোন কোএফিসিয়েন্টের গুণিতকে। আমাদের ক্ষেত্রে, ইনডেক্স নম্বর এবং দাম এর সম্পর্ক স্পষ্টভাবে নন-লিনিয়ার, যদিও ইনডেক্সগুলি বিশেষভাবে সাজানো হোক। +* **One-hot encoding** `Variety` কলামকে ৪টি আলাদা কলামে ভেঙে দেয়, প্রতিটি ভ্যারাইটির জন্য একটি করে। প্রতিটি কলামে ১ থাকবে যদি ভ্যারাইটির রোটি সেই ভ্যারাইটির হয়, অন্যথায় ০। এর ফলে লিনিয়ার রিগ্রেশনে প্রতিটি পাম্পকিন ভ্যারাইটির জন্য চারটি কোএফিসিয়েন্ট থাকবে, যা ঐ ভ্যারাইটির "শুরুর দাম" (বা "অতিরিক্ত দাম") নির্দেশ করে। -নিচের কোডটি দেখায় কীভাবে আমরা একটি বৈচিত্র্যকে ওয়ান-হট এনকোড করতে পারি: +নিচের কোডটি দেখায় কিভাবে আমরা একটি ভ্যারাইটিকে one-hot encode করতে পারি: ```python pd.get_dummies(new_pumpkins['Variety']) -``` +``` + - ID | FAIRYTALE | MINIATURE | MIXED HEIRLOOM VARIETIES | PIE TYPE -----|-----------|-----------|--------------------------|---------- -70 | 0 | 0 | 0 | 1 -71 | 0 | 0 | 0 | 1 -... | ... | ... | ... | ... -1738 | 0 | 1 | 0 | 0 -1739 | 0 | 1 | 0 | 0 -1740 | 0 | 1 | 0 | 0 -1741 | 0 | 1 | 0 | 0 -1742 | 0 | 1 | 0 | 0 + ID | FAIRYTALE | MINIATURE | MIXED HEIRLOOM VARIETIES | PIE TYPE +----|-----------|-----------|--------------------------|---------- +70 | 0 | 0 | 0 | 1 +71 | 0 | 0 | 0 | 1 +... | ... | ... | ... | ... +1738 | 0 | 1 | 0 | 0 +1739 | 0 | 1 | 0 | 0 +1740 | 0 | 1 | 0 | 0 +1741 | 0 | 1 | 0 | 0 +1742 | 0 | 1 | 0 | 0 -ওয়ান-হট এনকোড করা বৈচিত্র্যকে ইনপুট হিসেবে ব্যবহার করে লিনিয়ার রিগ্রেশন প্রশিক্ষণ দিতে, আমাদের কেবল `X` এবং `y` ডেটা সঠিকভাবে ইনিশিয়ালাইজ করতে হবে: +One-hot encoded variety ইনপুট ব্যবহার করে লিনিয়ার রিগ্রেশন ট্রেন করতে, আমরা কেবল সঠিকভাবে `X` এবং `y` ডেটা ইনিশিয়ালাইজ করলেই হয়: ```python X = pd.get_dummies(new_pumpkins['Variety']) y = new_pumpkins['Price'] -``` +``` + -বাকি কোডটি উপরের লিনিয়ার রিগ্রেশন প্রশিক্ষণের মতোই। যদি আপনি এটি চেষ্টা করেন, আপনি দেখতে পাবেন যে গড় বর্গ ত্রুটি (MSE) প্রায় একই থাকে, তবে আমরা অনেক বেশি determination coefficient (~77%) পাই। আরও সঠিক পূর্বানুমান পেতে, আমরা আরও শ্রেণীবদ্ধ ফিচার এবং সংখ্যাসূচক ফিচার যেমন `Month` বা `DayOfYear` বিবেচনায় নিতে পারি। একটি বড় ফিচার অ্যারে পেতে, আমরা `join` ব্যবহার করতে পারি: +বাকি কোড আগের লিনিয়ার রিগ্রেশন ট্রেন করার মতই। চেষ্টা করলে দেখবেন mean squared error প্রায় একই থাকে, কিন্তু determination অনেক বেশি (~৭৭%) হয়। আরো সঠিক পূর্বাভাস পেতে আমরা আরো ক্যাটেগরিক্যাল ফিচার এবং সংখ্যাত্মক ফিচার যেমন `Month` বা `DayOfYear` বিবেচনা করতে পারি। একাধিক ফিচার একত্র করতে আমরা `join` ব্যবহার করতে পারি: ```python X = pd.get_dummies(new_pumpkins['Variety']) \ @@ -304,68 +323,72 @@ X = pd.get_dummies(new_pumpkins['Variety']) \ .join(pd.get_dummies(new_pumpkins['City'])) \ .join(pd.get_dummies(new_pumpkins['Package'])) y = new_pumpkins['Price'] -``` +``` + -এখানে আমরা `City` এবং `Package` টাইপকেও বিবেচনায় নিয়েছি, যা আমাদের MSE 2.84 (10%) এবং determination 0.94 দেয়! +এখানেও আমরা `City` এবং `Package` টাইপ বিবেচনা করছি, যা MSE 2.84 (১০%) এবং determination 0.94 দেয়! -## সবকিছু একত্রিত করা +## Putting it all together -সেরা মডেল তৈরি করতে, আমরা উপরের উদাহরণ থেকে সম্মিলিত (ওয়ান-হট এনকোড করা শ্রেণীবদ্ধ + সংখ্যাসূচক) ডেটা এবং পলিনোমিয়াল রিগ্রেশন ব্যবহার করতে পারি। আপনার সুবিধার জন্য এখানে সম্পূর্ণ কোড দেওয়া হলো: +সেরা মডেল তৈরি করতে আমরা উপরের উদাহরণ থেকে একত্রিত (one-hot encoded ক্যাটেগরিক্যাল + সংখ্যাত্মক) ডেটা Polynomial Regression এর সঙ্গে ব্যবহার করতে পারি। আপনার সুবিধার জন্য সম্পূর্ণ কোড এখানে: ```python -# set up training data +# প্রশিক্ষণ ডেটা সেট আপ করুন X = pd.get_dummies(new_pumpkins['Variety']) \ .join(new_pumpkins['Month']) \ .join(pd.get_dummies(new_pumpkins['City'])) \ .join(pd.get_dummies(new_pumpkins['Package'])) y = new_pumpkins['Price'] -# make train-test split +# ট্রেন-টেস্ট বিভাজন করুন X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) -# setup and train the pipeline +# পাইপলাইন সেট আপ এবং প্রশিক্ষণ দিন pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) -# predict results for test data +# টেস্ট ডেটার জন্য ফলাফল পূর্বানুমান করুন pred = pipeline.predict(X_test) -# calculate MSE and determination +# MSE এবং নির্ধারণ ক্ষমতা গণনা করুন mse = np.sqrt(mean_squared_error(y_test,pred)) print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') score = pipeline.score(X_train,y_train) print('Model determination: ', score) -``` +``` + -এটি আমাদের প্রায় ৯৭% determination coefficient এবং MSE=2.23 (~8% পূর্বানুমান ত্রুটি) দেবে। +এটি প্রায় ৯৭% determination coefficient এবং MSE=2.23 (~৮% পূর্বাভাস ত্রুটি) দেবে। -| মডেল | MSE | Determination | -|-------|-----|---------------| -| `DayOfYear` লিনিয়ার | 2.77 (17.2%) | 0.07 | -| `DayOfYear` পলিনোমিয়াল | 2.73 (17.0%) | 0.08 | -| `Variety` লিনিয়ার | 5.24 (19.7%) | 0.77 | -| সব ফিচার লিনিয়ার | 2.84 (10.5%) | 0.94 | -| সব ফিচার পলিনোমিয়াল | 2.23 (8.25%) | 0.97 | +| Model | MSE | Determination | +|-------|-----|---------------| +| `DayOfYear` Linear | 2.77 (১৭.২%) | 0.07 | +| `DayOfYear` Polynomial | 2.73 (১৭.০%) | 0.08 | +| `Variety` Linear | 5.24 (১৯.৭%) | 0.77 | +| All features Linear | 2.84 (১০.৫%) | 0.94 | +| All features Polynomial | 2.23 (৮.২৫%) | 0.97 | -🏆 দারুণ কাজ! আপনি এক পাঠে চারটি রিগ্রেশন মডেল তৈরি করেছেন এবং মডেলের গুণমান ৯৭% পর্যন্ত উন্নত করেছেন। রিগ্রেশনের চূড়ান্ত অংশে, আপনি ক্যাটাগরি নির্ধারণের জন্য লজিস্টিক রিগ্রেশন সম্পর্কে শিখবেন। +🏆 শুভকামনা! আপনি এক পাঠে চারটি রিগ্রেশন মডেল তৈরী করেছেন, এবং মডেল গুণমান ৯৭% উন্নত করেছেন। রিগ্রেশন এর শেষ অংশে আপনি লজিস্টিক রিগ্রেশন সম্পর্কে শিখবেন যা শ্রেণি নির্ধারণে ব্যবহৃত হয়। ---- -## 🚀চ্যালেঞ্জ +--- +## 🚀Challenge -এই নোটবুকে বিভিন্ন ভেরিয়েবল পরীক্ষা করুন এবং দেখুন কীভাবে সম্পর্ক মডেলের নির্ভুলতার সাথে সামঞ্জস্যপূর্ণ। +এই নোটবুকে বিভিন্ন ভেরিয়েবল টেস্ট করে দেখুন কিভাবে সহসম্পর্ক মডেলের নির্ভুলতার সাথে সম্পর্কিত। -## [পোস্ট-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) +## [Post-lecture quiz](https://ff-quizzes.netlify.app/en/ml/) -## পুনরালোচনা ও স্ব-অধ্যয়ন +## Review & Self Study -এই পাঠে আমরা লিনিয়ার রিগ্রেশন সম্পর্কে শিখেছি। রিগ্রেশনের অন্যান্য গুরুত্বপূর্ণ ধরন রয়েছে। Stepwise, Ridge, Lasso এবং Elasticnet কৌশল সম্পর্কে পড়ুন। আরও শেখার জন্য একটি ভালো কোর্স হলো [স্ট্যানফোর্ড স্ট্যাটিস্টিক্যাল লার্নিং কোর্স](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning)। +এই পাঠে আমরা লিনিয়ার রিগ্রেশন শিখেছি। রিগ্রেশনের আরো গুরুত্বপূর্ণ ধরণ রয়েছে। Stepwise, Ridge, Lasso এবং Elasticnet টেকনিক সম্পর্কে পড়ুন। আরও জানার জন্য ভালো একটি কোর্স হলো [Stanford Statistical Learning course](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning)। -## অ্যাসাইনমেন্ট +## Assignment -[একটি মডেল তৈরি করুন](assignment.md) +[Build a Model](assignment.md) --- + **অস্বীকৃতি**: -এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। নথিটির মূল ভাষায় রচিত সংস্করণটিকেই প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে সৃষ্ট কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। \ No newline at end of file +এই নথিটি কৃত্রিম বুদ্ধিমত্তা অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। যদিও আমরা সঠিকতার জন্য চেষ্টা করি, দয়া করে চোখ বুলিয়ে নিন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল নথিটি তার নিজস্ব ভাষায় কর্তৃপক্ষসূত্র হিসাবে বিবেচিত হওয়া উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানব অনুবাদের পরামর্শ দেওয়া হয়। এই অনুবাদের ব্যবহারে কোনো ভুলবোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। + \ No newline at end of file diff --git a/translations/bn/4-Classification/3-Classifiers-2/README.md b/translations/bn/4-Classification/3-Classifiers-2/README.md index 64e3e6383..6d60a5ef1 100644 --- a/translations/bn/4-Classification/3-Classifiers-2/README.md +++ b/translations/bn/4-Classification/3-Classifiers-2/README.md @@ -1,42 +1,42 @@ -# কুইজিন শ্রেণীবিভাজক ২ +# রান্নার শ্রেণীবিভাগকারী ২ -এই দ্বিতীয় শ্রেণীবিভাজন পাঠে, আপনি সংখ্যাসূচক ডেটা শ্রেণীবিভাজনের আরও পদ্ধতি অন্বেষণ করবেন। এছাড়াও, আপনি একটি শ্রেণীবিভাজক নির্বাচন করার প্রভাব সম্পর্কে শিখবেন। +এই দ্বিতীয় শ্রেণীবিভাগের পাঠে, আপনি সংখ্যাসূচক ডেটা শ্রেণীবদ্ধ করার আরও উপায় আবিষ্কার করবেন। এছাড়াও আপনি শিখবেন একটি শ্রেণীবিভাগকারী অন্যটির তুলনায় বেছে নেওয়ার পরিণতি সম্পর্কে। -## [পূর্ব-পাঠ কুইজ](https://ff-quizzes.netlify.app/en/ml/) +## [পূর্ব-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) -### পূর্বশর্ত +### পূর্বপ্রয়োজনীয়তা -আমরা ধরে নিচ্ছি যে আপনি পূর্ববর্তী পাঠগুলি সম্পন্ন করেছেন এবং আপনার `data` ফোল্ডারে একটি পরিষ্কার ডেটাসেট রয়েছে যার নাম _cleaned_cuisines.csv_, যা এই ৪-পাঠের ফোল্ডারের মূল অংশে রয়েছে। +আমরা ধরে নিচ্ছি যে আপনি পূর্ববর্তী পাঠগুলি সম্পন্ন করেছেন এবং আপনার `data` ফোল্ডারে একটি পরিস্কৃত ডেটাসেট রয়েছে যার নাম _cleaned_cuisines.csv_ এই ৪-পাঠের মূল ফোল্ডারের রুটে। ### প্রস্তুতি -আমরা আপনার _notebook.ipynb_ ফাইলটি পরিষ্কার ডেটাসেট দিয়ে লোড করেছি এবং এটি X এবং y ডেটাফ্রেমে ভাগ করেছি, যা মডেল তৈরির প্রক্রিয়ার জন্য প্রস্তুত। +আমরা আপনার _notebook.ipynb_ ফাইলে পরিস্কৃত ডেটাসেট লোড করে ফেলেছি এবং এটিকে X এবং y ডেটাফ্রেমে ভাগ করেছি, মডেল নির্মাণ প্রক্রিয়ার জন্য প্রস্তুত। -## একটি শ্রেণীবিভাজন মানচিত্র +## একটি শ্রেণীবিভাগ মানচিত্র -পূর্বে, আপনি মাইক্রোসফটের চিট শিট ব্যবহার করে ডেটা শ্রেণীবিভাজনের বিভিন্ন বিকল্প সম্পর্কে শিখেছেন। Scikit-learn একটি অনুরূপ, কিন্তু আরও বিস্তারিত চিট শিট অফার করে যা আপনার শ্রেণীবিভাজক নির্বাচনকে আরও সংকুচিত করতে সাহায্য করতে পারে: +আগে, আপনি Microsoft-এর চিট শীট ব্যবহার করে ডেটা শ্রেণীবদ্ধ করার বিভিন্ন বিকল্প সম্পর্কে জানেন। Scikit-learn একটি অনুরূপ, কিন্তু আরও সূক্ষ্ম চিট শীট অফার করে যা আপনার এস্টিমেটর (অন্য একটি শব্দ শ্রেণীবিভাগকারীদের জন্য) নির্বাচন আরও সংকুচিত করতে সাহায্য করতে পারে: -![Scikit-learn থেকে ML মানচিত্র](../../../../4-Classification/3-Classifiers-2/images/map.png) -> টিপ: [এই মানচিত্রটি অনলাইনে দেখুন](https://scikit-learn.org/stable/tutorial/machine_learning_map/) এবং পথ ধরে ক্লিক করে ডকুমেন্টেশন পড়ুন। +![ML Map from Scikit-learn](../../../../translated_images/bn/map.e963a6a51349425a.webp) +> টিপ: [এই মানচিত্রটি অনলাইনে দেখুন](https://scikit-learn.org/stable/tutorial/machine_learning_map/) এবং ডকুমেন্টেশন পড়তে পথে ক্লিক করুন। ### পরিকল্পনা -এই মানচিত্রটি আপনার ডেটা সম্পর্কে পরিষ্কার ধারণা থাকলে খুবই সহায়ক, কারণ আপনি এর পথ ধরে একটি সিদ্ধান্তে পৌঁছাতে পারেন: +এই মানচিত্রটি খুবই উপকারী যখন আপনি আপনার ডেটা সম্পর্কে স্পষ্ট ধারণা পান, কারণ আপনি এর পথ ধরে হাঁটতে পারেন একটি সিদ্ধান্তে পৌঁছাতে: -- আমাদের কাছে >৫০ নমুনা রয়েছে -- আমরা একটি বিভাগ পূর্বাভাস দিতে চাই -- আমাদের লেবেলযুক্ত ডেটা রয়েছে -- আমাদের কাছে ১০০K-এর কম নমুনা রয়েছে -- ✨ আমরা একটি Linear SVC বেছে নিতে পারি -- যদি এটি কাজ না করে, যেহেতু আমাদের সংখ্যাসূচক ডেটা রয়েছে - - আমরা ✨ KNeighbors Classifier চেষ্টা করতে পারি - - যদি এটি কাজ না করে, ✨ SVC এবং ✨ Ensemble Classifiers চেষ্টা করুন +- আমাদের কাছে >৫০ নমুনা আছে +- আমরা একটি শ্রেণী পূর্বাভাস দিতে চাই +- আমাদের কাছে লেবেল করা ডেটা আছে +- আমাদের কাছে ১০০ হাজারের কম নমুনা আছে +- ✨ আমরা একটি লিনিয়ার SVC নির্বাচন করতে পারি +- যদি তা কাজ না করে, যেহেতু আমাদের সংখ্যাসূচক ডেটা আছে + - আমরা চেষ্টা করতে পারি ✨ KNeighbors Classifier + - যদি তা কাজ না করে, চেষ্টা করুন ✨ SVC এবং ✨ Ensemble Classifiers এটি অনুসরণ করার জন্য একটি খুব সহায়ক পথ। -## অনুশীলন - ডেটা ভাগ করুন +## ব্যায়াম - ডেটা ভাগ করুন -এই পথ অনুসরণ করে, আমাদের প্রয়োজনীয় লাইব্রেরি আমদানি করে শুরু করা উচিত। +এই পথ অনুসরণ করে, আমরা কিছু লাইব্রেরি আমদানি করার মাধ্যমে শুরু করা উচিত। 1. প্রয়োজনীয় লাইব্রেরি আমদানি করুন: @@ -50,31 +50,31 @@ import numpy as np ``` -1. আপনার প্রশিক্ষণ এবং পরীক্ষার ডেটা ভাগ করুন: +1. আপনার প্রশিক্ষণ এবং পরীক্ষা ডেটা ভাগ করুন: ```python - X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3) + X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3) ``` -## লিনিয়ার SVC শ্রেণীবিভাজক +## লিনিয়ার SVC শ্রেণীবিভাগকারী -সাপোর্ট-ভেক্টর ক্লাস্টারিং (SVC) হল সাপোর্ট-ভেক্টর মেশিন পরিবারের একটি অংশ, যা মেশিন লার্নিংয়ের একটি কৌশল (নিচে আরও জানুন)। এই পদ্ধতিতে, আপনি একটি 'কর্নেল' নির্বাচন করতে পারেন যা লেবেলগুলিকে কীভাবে ক্লাস্টার করা হবে তা নির্ধারণ করে। 'C' প্যারামিটারটি 'নিয়ন্ত্রণ' নির্দেশ করে, যা প্যারামিটারগুলির প্রভাব নিয়ন্ত্রণ করে। কর্নেল [বিভিন্ন](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC) হতে পারে; এখানে আমরা এটি 'লিনিয়ার' সেট করেছি যাতে আমরা লিনিয়ার SVC ব্যবহার করতে পারি। প্রোবাবিলিটি ডিফল্টভাবে 'ফলস'; এখানে আমরা এটি 'ট্রু' সেট করেছি যাতে সম্ভাবনার অনুমান সংগ্রহ করা যায়। আমরা র‍্যান্ডম স্টেট '0' সেট করেছি যাতে ডেটা শাফল করা যায় এবং সম্ভাবনা পাওয়া যায়। +সাপোর্ট-ভেক্টর ক্লাস্টারিং (SVC) হচ্ছে সাপোর্ট-ভেক্টর মেশিন পরিবারের একটি সদস্য (নিচে এগুলো সম্পর্কে আরও জানুন)। এই পদ্ধতিতে, আপনি একটি 'কর্নেল' বেছে নিতে পারেন যেটা লেবেলগুলো কিভাবে ক্লাস্টার করবে তা নির্ধারণ করে। 'C' প্যারামিটারটি 'রেগুলারাইজেশন' নির্দেশ করে যা প্যারামিটারগুলোর প্রভাব নিয়ন্ত্রণ করে। কর্নেল হতে পারে [বিভিন্ন](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC); এখানে আমরা 'linear' সেট করেছি যাতে আমরা লিনিয়ার SVC ব্যবহার করতে পারি। সম্ভাবনা (Probability) ডিফল্ট 'false'; আমরা এটিকে 'true' সেট করেছি সম্ভাবনা অনুমান সংগ্রহ করার জন্য। আমরা ডেটা শাফল করার জন্য র‍্যান্ডম স্টেট '0' সেট করেছি যাতে সম্ভাবনা পাওয়া যায়। -### অনুশীলন - একটি লিনিয়ার SVC প্রয়োগ করুন +### ব্যায়াম - একটি লিনিয়ার SVC প্রয়োগ করুন -একটি শ্রেণীবিভাজকের অ্যারে তৈরি করে শুরু করুন। আমরা পরীক্ষা করার সময় এই অ্যারেতে ক্রমান্বয়ে যোগ করব। +শ্রেণীবিভাগকারীরা ধারণার জন্য একটি অ্যারে তৈরি করা শুরু করুন। আমরা পরীক্ষার সাথে এই অ্যারেতে ক্রমাগত যোগ করব। 1. একটি লিনিয়ার SVC দিয়ে শুরু করুন: ```python C = 10 - # Create different classifiers. + # বিভিন্ন শ্রেণীবিন্যাসকারী তৈরি করুন। classifiers = { 'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0) } ``` -2. লিনিয়ার SVC ব্যবহার করে আপনার মডেল প্রশিক্ষণ দিন এবং একটি রিপোর্ট প্রিন্ট করুন: +2. লিনিয়ার SVC ব্যবহার করে আপনার মডেল ট্রেন করুন এবং একটি প্রতিবেদন প্রিন্ট করুন: ```python n_classifiers = len(classifiers) @@ -105,21 +105,21 @@ weighted avg 0.79 0.79 0.79 1199 ``` -## K-Neighbors শ্রেণীবিভাজক +## K-Neighbors শ্রেণীবিভাগকারী -K-Neighbors হল "পড়শি" পরিবারের অংশ, যা মেশিন লার্নিংয়ের পদ্ধতি এবং এটি সুপারভাইজড এবং আনসুপারভাইজড লার্নিং উভয়ের জন্য ব্যবহার করা যেতে পারে। এই পদ্ধতিতে, একটি পূর্বনির্ধারিত সংখ্যক পয়েন্ট তৈরি করা হয় এবং ডেটা এই পয়েন্টগুলির চারপাশে সংগ্রহ করা হয় যাতে ডেটার জন্য সাধারণ লেবেল পূর্বাভাস দেওয়া যায়। +K-Neighbors "neighbors" পরিবারভুক্ত ML পদ্ধতির অংশ, যা সুপারভাইজড এবং আনসুপারভাইজড উভয় লার্নিং এর জন্য ব্যবহার করা যেতে পারে। এই পদ্ধতিতে, পূর্বনির্ধারিত সংখ্যক পয়েন্ট তৈরি করা হয় এবং ডেটা এই পয়েন্টগুলোর চারপাশে সংগৃহীত হয় যাতে ডেটার জন্য সাধারণীকৃত লেবেল পূর্বাভাস দেওয়া যায়। -### অনুশীলন - K-Neighbors শ্রেণীবিভাজক প্রয়োগ করুন +### ব্যায়াম - K-Neighbors শ্রেণীবিভাগকারী প্রয়োগ করুন -পূর্ববর্তী শ্রেণীবিভাজকটি ভালো ছিল এবং ডেটার সাথে ভালো কাজ করেছে, তবে হয়তো আমরা আরও ভালো নির্ভুলতা পেতে পারি। একটি K-Neighbors শ্রেণীবিভাজক চেষ্টা করুন। +আগের শ্রেণীবিভাগকারী ভালো ছিল, এবং ডেটার সাথে ভালো কাজ করেছে, তবে হয়ত আমরা আরও ভালো সঠিকতা পেতে পারি। একটি K-Neighbors শ্রেণীবিভাগকারী চেষ্টা করুন। -1. আপনার শ্রেণীবিভাজক অ্যারেতে একটি লাইন যোগ করুন (লিনিয়ার SVC আইটেমের পরে একটি কমা যোগ করুন): +1. আপনার শ্রেণীবিভাগকারী অ্যারেতে একটি লাইন যোগ করুন (Linear SVC আইটেমের পরে কমা দিন): ```python 'KNN classifier': KNeighborsClassifier(C), ``` - ফলাফল একটু খারাপ: + ফলাফল কিছুটা খারাপ: ```output Accuracy (train) for KNN classifier: 73.8% @@ -138,15 +138,15 @@ K-Neighbors হল "পড়শি" পরিবারের অংশ, যা ✅ [K-Neighbors](https://scikit-learn.org/stable/modules/neighbors.html#neighbors) সম্পর্কে জানুন -## সাপোর্ট ভেক্টর শ্রেণীবিভাজক +## সাপোর্ট ভেক্টর শ্রেণীবিভাগকারী -সাপোর্ট-ভেক্টর শ্রেণীবিভাজক [সাপোর্ট-ভেক্টর মেশিন](https://wikipedia.org/wiki/Support-vector_machine) পরিবারের অংশ, যা শ্রেণীবিভাজন এবং রিগ্রেশন কাজের জন্য ব্যবহৃত হয়। SVMs "প্রশিক্ষণ উদাহরণগুলিকে স্থানগুলিতে পয়েন্টে ম্যাপ করে" যাতে দুটি বিভাগের মধ্যে দূরত্ব সর্বাধিক করা যায়। পরবর্তী ডেটা এই স্থানে ম্যাপ করা হয় যাতে তাদের বিভাগ পূর্বাভাস দেওয়া যায়। +সাপোর্ট-ভেক্টর শ্রেণীবিভাগকারীরা [সাপোর্ট-ভেক্টর মেশিন](https://wikipedia.org/wiki/Support-vector_machine) পরিবারের সদস্য, যেগুলো শ্রেণীবিভাগ এবং রিগ্রেশন কাজের জন্য ব্যবহৃত হয়। SVM "প্রশিক্ষণ উদাহরণগুলোকে স্থানীয় বিন্দুতে ম্যাপ করে" দুটি শ্রেণীর মধ্যে দূরত্ব সর্বাধিক করার জন্য। পরবর্তী ডেটাও এই স্থানে ম্যাপ করা হয় যাতে তার শ্রেণী পূর্বাভাস দেওয়া যায়। -### অনুশীলন - সাপোর্ট ভেক্টর শ্রেণীবিভাজক প্রয়োগ করুন +### ব্যায়াম - একটি সাপোর্ট ভেক্টর শ্রেণীবিভাগকারী প্রয়োগ করুন -আরও ভালো নির্ভুলতার জন্য একটি সাপোর্ট ভেক্টর শ্রেণীবিভাজক চেষ্টা করুন। +আসুন সাপোর্ট ভেক্টর শ্রেণীবিভাগকারী দিয়ে একটু উন্নত সঠিকতার চেষ্টা করি। -1. K-Neighbors আইটেমের পরে একটি কমা যোগ করুন এবং তারপর এই লাইনটি যোগ করুন: +1. K-Neighbors আইটেমের পরে একটি কমা দিন, তারপর এই লাইনটি যোগ করুন: ```python 'SVC': SVC(), @@ -169,18 +169,18 @@ K-Neighbors হল "পড়শি" পরিবারের অংশ, যা weighted avg 0.84 0.83 0.83 1199 ``` - ✅ [সাপোর্ট-ভেক্টর](https://scikit-learn.org/stable/modules/svm.html#svm) সম্পর্কে জানুন + ✅ [Support-Vectors](https://scikit-learn.org/stable/modules/svm.html#svm) সম্পর্কে জানুন -## Ensemble শ্রেণীবিভাজক +## Ensemble শ্রেণীবিভাগকারী -পথের একেবারে শেষ পর্যন্ত অনুসরণ করি, যদিও পূর্ববর্তী পরীক্ষা বেশ ভালো ছিল। আসুন কিছু 'Ensemble শ্রেণীবিভাজক' চেষ্টা করি, বিশেষ করে Random Forest এবং AdaBoost: +চলুন পথটি শেষ পর্যন্ত অনুসরণ করি, যদিও পূর্ববর্তী পরীক্ষা বেশ ভালো ছিল। আসুন কিছু 'Ensemble শ্রেণীবিভাগকারী' চেষ্টা করি, বিশেষ করে Random Forest এবং AdaBoost: ```python 'RFST': RandomForestClassifier(n_estimators=100), 'ADA': AdaBoostClassifier(n_estimators=100) ``` -ফলাফল খুবই ভালো, বিশেষ করে Random Forest-এর জন্য: +ফলাফল খুব ভালো, বিশেষ করে Random Forest এর জন্য: ```output Accuracy (train) for RFST: 84.5% @@ -210,31 +210,33 @@ Accuracy (train) for ADA: 72.4% weighted avg 0.73 0.72 0.72 1199 ``` -✅ [Ensemble শ্রেণীবিভাজক](https://scikit-learn.org/stable/modules/ensemble.html) সম্পর্কে জানুন +✅ [Ensemble শ্রেণীবিভাগকারী](https://scikit-learn.org/stable/modules/ensemble.html) সম্পর্কে জানুন -মেশিন লার্নিংয়ের এই পদ্ধতি "কয়েকটি বেস এস্টিমেটরের পূর্বাভাসকে একত্রিত করে" মডেলের গুণমান উন্নত করে। আমাদের উদাহরণে, আমরা Random Trees এবং AdaBoost ব্যবহার করেছি। +মেশিন লার্নিংয়ের এই পদ্ধতিটি "একাধিক বেস এস্টিমেটরের পূর্বাভাসকে একত্রিত করে" মডেলের গুণমান উন্নত করে। আমাদের উদাহরণে, আমরা Random Trees এবং AdaBoost ব্যবহার করেছি। -- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), একটি গড় পদ্ধতি, 'ডিসিশন ট্রি' এর একটি 'ফরেস্ট' তৈরি করে যা অতিরিক্ত ফিটিং এড়াতে র‍্যান্ডমনেস দিয়ে সংযোজিত হয়। n_estimators প্যারামিটারটি ট্রির সংখ্যায় সেট করা হয়। +- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), একটি গড়করণ পদ্ধতি, 'decision trees' এর একটি 'বন' তৈরি করে যেটি র‍্যান্ডোমনেস সহ অতিপ্রশিক্ষণ এড়ায়। n_estimators প্যারামিটার গাছের সংখ্যা নির্ধারণ করে। -- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) একটি ডেটাসেটে একটি শ্রেণীবিভাজক ফিট করে এবং তারপর সেই শ্রেণীবিভাজকের কপি একই ডেটাসেটে ফিট করে। এটি ভুলভাবে শ্রেণীবদ্ধ আইটেমগুলির ওজনের উপর ফোকাস করে এবং পরবর্তী শ্রেণীবিভাজকের ফিট সামঞ্জস্য করে সেগুলি সংশোধন করে। +- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) একটি শ্রেণীবিভাগকারী ডেটাসেটে ফিট করে এবং তারপর সেই শ্রেণীবিভাগকারীর কপি একই ডেটাসেটে ফিট করে। এটি ভুল শ্রেণীবদ্ধ আইটেমের ওজনের প্রতি মনোযোগ দেয় এবং পরবর্তী শ্রেণীবিভাগকারীর জন্য ফিট সামঞ্জস্য করে। --- ## 🚀চ্যালেঞ্জ -এই পদ্ধতিগুলির প্রতিটিতে অনেক সংখ্যক প্যারামিটার রয়েছে যা আপনি পরিবর্তন করতে পারেন। প্রতিটির ডিফল্ট প্যারামিটারগুলি গবেষণা করুন এবং ভাবুন এই প্যারামিটারগুলি পরিবর্তন করলে মডেলের গুণমানের জন্য কী অর্থ হতে পারে। +প্রত্যেকটি পদ্ধতির অনেক প্যারামিটার রয়েছে যেগুলো আপনি টুইক করতে পারেন। প্রতিটির ডিফল্ট প্যারামিটারগুলো গবেষণা করুন এবং ভাবুন এসব প্যারামিটার পরিবর্তন করলে মডেলের গুণমানের উপরে কি প্রভাব পড়বে। -## [পাঠ-পরবর্তী কুইজ](https://ff-quizzes.netlify.app/en/ml/) +## [পোস্ট-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) -## পর্যালোচনা ও স্ব-অধ্যয়ন +## পর্যালোচনা ও স্বতঃশিক্ষণ -এই পাঠগুলিতে অনেক জটিল শব্দ রয়েছে, তাই [এই তালিকা](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) পর্যালোচনা করতে এক মিনিট সময় নিন, যেখানে দরকারী পরিভাষা রয়েছে! +এই পাঠগুলিতে অনেক টার্মিনোলজি আছে, তাই [এই তালিকাটি](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) একবার দেখে নিন যা কাজে আসবে! -## অ্যাসাইনমেন্ট +## অ্যাসাইনমেন্ট -[প্যারামিটার নিয়ে খেলা](assignment.md) +[প্যারামিটার খেলা](assignment.md) --- -**অস্বীকৃতি**: -এই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসাধ্য সঠিকতা নিশ্চিত করার চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটিকে প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যা হলে আমরা দায়বদ্ধ থাকব না। \ No newline at end of file + +**অস্বীকৃতি**: +এই নথিটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। আমরা যথাসাধ্য সঠিকতার চেষ্টা করি, তবে স্বয়ংক্রিয় অনুবাদে ভুল বা অসঙ্গতি থাকতে পারে তা দয়া করে বিবেচনা করুন। মূল নথিটি তার স্বদেশী ভাষায়ই কর্তৃত্বপূর্ণ উৎস হিসেবে গণ্য করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানব অনুবাদ সরবরাহ করা উত্তম। এই অনুবাদের ব্যবহারে যে কোনও ভুল বোঝাবুঝি বা ভুল অর্থ গ্রহণের জন্য আমরা দায়ী হব না। + \ No newline at end of file diff --git a/translations/bn/4-Classification/3-Classifiers-2/notebook.ipynb b/translations/bn/4-Classification/3-Classifiers-2/notebook.ipynb index 42426d6d7..2e2ab3d48 100644 --- a/translations/bn/4-Classification/3-Classifiers-2/notebook.ipynb +++ b/translations/bn/4-Classification/3-Classifiers-2/notebook.ipynb @@ -4,7 +4,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "# শ্রেণীবিন্যাস মডেল তৈরি করুন\n" + "# শ্রেণীবিভাগ মডেল নির্মাণ\n" ] }, { @@ -116,15 +116,15 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**অস্বীকৃতি**: \nএই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসাধ্য সঠিকতা নিশ্চিত করার চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটিকে প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যা হলে আমরা দায়ী থাকব না।\n" + "---\n\n\n**দ্রষ্টব্য**: \nএই নথিটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। আমরা যথাসাধ্য সঠিকতার চেষ্টা করি, তবে অটোমেটেড অনুবাদে ত্রুটি বা অসঙ্গতি থাকার সম্ভাবনা রয়েছে। মূল নথিটি তার স্বাভাবিক ভাষায়ই সর্বোচ্চ প্রমাণস্বরূপ বিবেচিত হওয়া উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানুষের অনুবাদ গ্রহণ করার পরামর্শ দেওয়া হয়। এই অনুবাদের ব্যবহার থেকে সৃষ্ট কোনো ভুল বোঝাবুঝি বা ব্যাখ্যার জন্য আমরা দায়বদ্ধ নই।\n\n" ] } ], @@ -152,12 +152,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "15a83277036572e0773229b5f21c1e12", - "translation_date": "2025-08-29T23:47:18+00:00", - "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", - "language_code": "bn" } }, "nbformat": 4, diff --git a/translations/bn/4-Classification/3-Classifiers-2/solution/notebook.ipynb b/translations/bn/4-Classification/3-Classifiers-2/solution/notebook.ipynb index 0bc949d45..b995474fc 100644 --- a/translations/bn/4-Classification/3-Classifiers-2/solution/notebook.ipynb +++ b/translations/bn/4-Classification/3-Classifiers-2/solution/notebook.ipynb @@ -2,7 +2,7 @@ "cells": [ { "source": [ - "# আরও শ্রেণীবিন্যাস মডেল তৈরি করুন\n" + "# আরও ক্লাসিফিকেশন মডেল তৈরি করুন\n" ], "cell_type": "markdown", "metadata": {} @@ -116,15 +116,15 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ - "# বিভিন্ন শ্রেণীবিভাজক চেষ্টা করুন\n" + "# বিভিন্ন শ্রেণীবিন্যাসকারী চেষ্টা করুন\n" ] }, { @@ -148,7 +148,7 @@ "metadata": {}, "outputs": [], "source": [ - "X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3)" + "X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)" ] }, { @@ -263,7 +263,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**অস্বীকৃতি**: \nএই নথিটি AI অনুবাদ পরিষেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিক অনুবাদ প্রদানের চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটিকে প্রামাণিক উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যা হলে আমরা দায়বদ্ধ থাকব না।\n" + "---\n\n\n**দায়িত্বরহিত ঘোষণা**: \nএই নথিটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। আমরা সঠিকতার জন্য চেষ্টা করি, তবে স্বয়ংক্রিয় অনুবাদে ভুল বা অসঙ্গতি থাকতে পারে। আসল নথিটি তার নিজ নিজ ভাষায় কর্তৃত্বপূর্ণ উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানষী অনুবাদ গ্রহণ করা সুপারিশ করা হয়। এই অনুবাদের ব্যবহারে যে কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নয়।\n\n" ] } ], @@ -291,12 +291,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "7ea2b714669c823a596d986ba2d5739f", - "translation_date": "2025-08-29T23:47:35+00:00", - "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", - "language_code": "bn" } }, "nbformat": 4, diff --git a/translations/bn/README.md b/translations/bn/README.md index 4d4379487..15eaa643d 100644 --- a/translations/bn/README.md +++ b/translations/bn/README.md @@ -8,160 +8,170 @@ [![GitHub forks](https://img.shields.io/github/forks/microsoft/ML-For-Beginners.svg?style=social&label=Fork)](https://GitHub.com/microsoft/ML-For-Beginners/network/) [![GitHub stars](https://img.shields.io/github/stars/microsoft/ML-For-Beginners.svg?style=social&label=Star)](https://GitHub.com/microsoft/ML-For-Beginners/stargazers/) -### 🌐 বহু-ভাষার সমর্থন +### 🌐 বহুভাষী সমর্থন -#### গিটহাব অ্যাকশনের মাধ্যমে সমর্থিত (স্বয়ংক্রিয় এবং সর্বদা আপ-টু-ডেট) +#### GitHub Action দ্বারা সমর্থিত (স্বয়ংক্রিয় এবং সর্বদা হালনাগাদ) -[Arabic](../ar/README.md) | [Bengali](./README.md) | [Bulgarian](../bg/README.md) | [Burmese (Myanmar)](../my/README.md) | [Chinese (Simplified)](../zh-CN/README.md) | [Chinese (Traditional, Hong Kong)](../zh-HK/README.md) | [Chinese (Traditional, Macau)](../zh-MO/README.md) | [Chinese (Traditional, Taiwan)](../zh-TW/README.md) | [Croatian](../hr/README.md) | [Czech](../cs/README.md) | [Danish](../da/README.md) | [Dutch](../nl/README.md) | [Estonian](../et/README.md) | [Finnish](../fi/README.md) | [French](../fr/README.md) | [German](../de/README.md) | [Greek](../el/README.md) | [Hebrew](../he/README.md) | [Hindi](../hi/README.md) | [Hungarian](../hu/README.md) | [Indonesian](../id/README.md) | [Italian](../it/README.md) | [Japanese](../ja/README.md) | [Kannada](../kn/README.md) | [Korean](../ko/README.md) | [Lithuanian](../lt/README.md) | [Malay](../ms/README.md) | [Malayalam](../ml/README.md) | [Marathi](../mr/README.md) | [Nepali](../ne/README.md) | [Nigerian Pidgin](../pcm/README.md) | [Norwegian](../no/README.md) | [Persian (Farsi)](../fa/README.md) | [Polish](../pl/README.md) | [Portuguese (Brazil)](../pt-BR/README.md) | [Portuguese (Portugal)](../pt-PT/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Romanian](../ro/README.md) | [Russian](../ru/README.md) | [Serbian (Cyrillic)](../sr/README.md) | [Slovak](../sk/README.md) | [Slovenian](../sl/README.md) | [Spanish](../es/README.md) | [Swahili](../sw/README.md) | [Swedish](../sv/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Tamil](../ta/README.md) | [Telugu](../te/README.md) | [Thai](../th/README.md) | [Turkish](../tr/README.md) | [Ukrainian](../uk/README.md) | [Urdu](../ur/README.md) | [Vietnamese](../vi/README.md) +[আরবি](../ar/README.md) | [বাংলা](./README.md) | [বুলগেরিয়ান](../bg/README.md) | [বর্মিজ (মায়ানমার)](../my/README.md) | [চীনা (সরলীকৃত)](../zh-CN/README.md) | [চীনা (প্রচলিত, হংকং)](../zh-HK/README.md) | [চীনা (প্রচলিত, ম্যাকাও)](../zh-MO/README.md) | [চীনা (প্রচলিত, তাইওয়ান)](../zh-TW/README.md) | [ক্রোয়েটিয়ান](../hr/README.md) | [চেক](../cs/README.md) | [ডেনিশ](../da/README.md) | [ডাচ](../nl/README.md) | [এস্থোনিয়ান](../et/README.md) | [ফিনিশ](../fi/README.md) | [ফরাসি](../fr/README.md) | [জার্মান](../de/README.md) | [গ্রিক](../el/README.md) | [হিব্রু](../he/README.md) | [হিন্দি](../hi/README.md) | [হাঙ্গেরিয়ান](../hu/README.md) | [ইন্দোনেশিয়ান](../id/README.md) | [ইতালিয়ান](../it/README.md) | [জাপানি](../ja/README.md) | [কন্নডা](../kn/README.md) | [কোরিয়ান](../ko/README.md) | [লিথুয়ানিয়ান](../lt/README.md) | [মালয়](../ms/README.md) | [মালায়ালাম](../ml/README.md) | [মারাঠি](../mr/README.md) | [নেপালি](../ne/README.md) | [নাইজেরিয়ান পিজিন](../pcm/README.md) | [নরওয়েজিয়ান](../no/README.md) | [ফার্সি (পারসি)](../fa/README.md) | [পোলিশ](../pl/README.md) | [পর্তুগিজ (ব্রাজিল)](../pt-BR/README.md) | [পর্তুগিজ (পর্তুগাল)](../pt-PT/README.md) | [পাঞ্জাবি (গুরমুখি)](../pa/README.md) | [রোমানিয়ান](../ro/README.md) | [রুশ](../ru/README.md) | [সার্বিয়ান (সিরিলিক)](../sr/README.md) | [স্লোভাক](../sk/README.md) | [স্লোভেনিয়ান](../sl/README.md) | [স্প্যানিশ](../es/README.md) | [সুয়াহিলি](../sw/README.md) | [সুইডিশ](../sv/README.md) | [তাগালগ (ফিলিপিনো)](../tl/README.md) | [তামিল](../ta/README.md) | [তেলেগু](../te/README.md) | [থাই](../th/README.md) | [তুর্কি](../tr/README.md) | [ইউক্রেনীয়](../uk/README.md) | [উর্দু](../ur/README.md) | [ভিয়েতনামী](../vi/README.md) -> **অনলাইনে ক্লোন করার পরিবর্তে লোকালি ক্লোন করতে চান?** - -> এই রেপোজিটরিতে ৫০+ ভাষার অনুবাদ অন্তর্ভুক্ত রয়েছে যা ডাউনলোড সাইজ অনেক বেড়ে যায়। অনুবাদ ছাড়া ক্লোন করতে স্পার্স চেকআউট ব্যবহার করুন: +> **স্থানীয়ভাবে ক্লোন করতে চান?** +> +> এই রিপোজিটরিটিতে ৫০+ ভাষার অনুবাদ অন্তর্ভুক্ত রয়েছে যা ডাউনলোড সাইজ অনেক বাড়িয়ে দেয়। অনুবাদ ছাড়া ক্লোন করতে, spars checkout ব্যবহার করুন: +> +> **Bash / macOS / Linux:** > ```bash > git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git > cd ML-For-Beginners > git sparse-checkout set --no-cone '/*' '!translations' '!translated_images' > ``` -> এটি আপনাকে ট্রেনিং সম্পূর্ণ করার জন্য দ্রুত ডাউনলোড সহ সবকিছু দেয়। +> +> **CMD (Windows):** +> ```cmd +> git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git +> cd ML-For-Beginners +> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images" +> ``` +> +> এটি আপনাকে কোর্স সম্পন্ন করার জন্য প্রয়োজনীয় সবকিছু অনেক দ্রুত ডাউনলোড প্রদান করে। #### আমাদের কমিউনিটিতে যোগ দিন [![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -আমাদের কাছে একটি ডিসকরডের মাধ্যমে AI সিরিজ চলছে, আরও জানুন এবং ১৮ - ৩০ সেপ্টেম্বর, ২০২৫ তারিখে [Learn with AI Series](https://aka.ms/learnwithai/discord) এ আমাদের সাথে যোগ দিন। আপনি GitHub Copilot ব্যবহার করে Data Science এর টিপস এবং ট্রিকস পাবেন। +আমাদের সঙ্গে একটি Discord AI সিরিজ চলছে, বিস্তারিত জানুন এবং ১৮ - ৩০ সেপ্টেম্বর, ২০২৫ এ [Learn with AI Series](https://aka.ms/learnwithai/discord) তে যোগ দিন। আপনি পাবেন GitHub Copilot ব্যবহার করে ডেটা সায়েন্সের টিপস এবং ট্রিকস। ![Learn with AI series](../../translated_images/bn/3.9b58fd8d6c373c20.webp) -# নতুনদের জন্য মেশিন লার্নিং - একটি পাঠক্রম +# যন্ত্র শিক্ষা প্রারম্ভিকদের জন্য - একটি পাঠক্রম -> 🌍 আমরা বিশ্বজুড়ে বিভিন্ন সংস্কৃতির মাধ্যমে মেশিন লার্নিং অন্বেষণ করব 🌍 +> 🌍 আমাদের যন্ত্র শিক্ষার ভ্রমণ শুরু হোক বিশ্ব সংস্কৃতির মাধ্যমে 🌍 -মাইক্রোসফটের ক্লাউড অ্যাডভোকেটরা আনন্দিত যে তারা একটি ১২ সপ্তাহের, ২৬টি পাঠের পাঠক্রম উপস্থাপন করছে যা মূলত **মেশিন লার্নিং** নিয়ে। এই পাঠক্রমে, আপনি যা কিছু শিখবেন তা মাঝে মাঝে **ক্লাসিক মেশিন লার্নিং** নামে পরিচিত, যেখানে মূলত Scikit-learn লাইব্রেরি ব্যবহার করা হয় এবং ডিপ লার্নিং এড়ানো হয়েছে, যা আমাদের [AI for Beginners' পাঠক্রমে](https://aka.ms/ai4beginners) কভার করা হয়েছে। এই পাঠক্রমটিকে আমাদের ['Data Science for Beginners' পাঠক্রমের](https://aka.ms/ds4beginners) সাথে জোড়া দিয়ে নিন। +Microsoft-এর Cloud Advocates ১২ সপ্তাহের, ২৬টি পাঠের একটি পাঠক্রম উপস্থাপন করতে পেরে আনন্দিত যেটি সম্পূর্ণ **Machine Learning** নিয়ে। এই পাঠক্রমে আপনি শিখবেন যা কখনও কখনও **প্রচলিত যন্ত্র শিক্ষা** বলা হয়, যেখানে প্রধানত Scikit-learn লাইব্রেরি ব্যবহার করা হয়েছে এবং ডীপ লার্নিং এড়ানো হয়েছে, যা আমাদের [AI for Beginners' curriculum](https://aka.ms/ai4beginners)-এ অন্তর্ভুক্ত। এগুলোকে আমাদের ['Data Science for Beginners' curriculum](https://aka.ms/ds4beginners) এর সাথে যুক্ত করেও ব্যবহার করতে পারেন। -আমাদের সাথে বিশ্বজুড়ে সফর করুন এবং বিভিন্ন জায়গার ডেটা নিয়ে ক্লাসিক প্রযুক্তিগুলো প্রয়োগ করুন। প্রতি পাঠে থাকবে পাঠের আগে ও পরে কুইজ, লেখা নির্দেশাবলী, সমাধান, একটি অ্যাসাইনমেন্ট এবং আরও অনেক কিছু। আমাদের প্রোজেক্ট-ভিত্তিক শিক্ষাদানের পদ্ধতি আপনাকে শেখার সাথে সাথে নির্মাণের সুযোগ দেয়, যা নতুন দক্ষতা শিখতে সবচেয়ে কার্যকর উপায়। +আমাদের সঙ্গে বিশ্ব জুড়ে ভ্রমণ করুন কারণ আমরা এই প্রচলিত কৌশলগুলোকে বিভিন্ন দেশের ডেটায় প্রয়োগ করব। প্রতিটি পাঠে থাকে পূর্ব ও পরবর্তী কুইজ, নির্দেশনা, সমাধান, অ্যাসাইনমেন্ট এবং আরও অনেক কিছু। প্রকল্প-ভিত্তিক পদ্ধতিতে শেখার মাধ্যমে আপনি শেখার সময় নির্মাণ করে দক্ষতা অর্জন করতে পারবেন। -**✍️ আমাদের লেখকদের গভীর ধন্যবাদ** Jen Looper, Stephen Howell, Francesca Lazzeri, Tomomi Imura, Cassie Breviu, Dmitry Soshnikov, Chris Noring, Anirban Mukherjee, Ornella Altunyan, Ruth Yakubu এবং Amy Boyd +**✍️ আমাদের লেখকদের প্রতি আন্তরিক ধন্যবাদ** Jen Looper, Stephen Howell, Francesca Lazzeri, Tomomi Imura, Cassie Breviu, Dmitry Soshnikov, Chris Noring, Anirban Mukherjee, Ornella Altunyan, Ruth Yakubu এবং Amy Boyd -**🎨 চিত্রাঙ্কনকারীদের প্রতি কৃতজ্ঞতা** Tomomi Imura, Dasani Madipalli, এবং Jen Looper +**🎨 আমাদের চিত্রশিল্পীদের প্রতি ধন্যবাদ** Tomomi Imura, Dasani Madipalli, এবং Jen Looper -**🙏 বিশেষ ধন্যবাদ 🙏 আমাদের Microsoft Student Ambassador লেখক, পর্যালোচক, এবং কনটেন্ট অবদানকারীদের**, বিশেষ করে Rishit Dagli, Muhammad Sakib Khan Inan, Rohan Raj, Alexandru Petrescu, Abhishek Jaiswal, Nawrin Tabassum, Ioan Samuila, এবং Snigdha Agarwal +**🙏 বিশেষ ধন্যবাদ 🙏 Microsoft Student Ambassador লেখক, পর্যালোচক এবং কনটেন্ট অবদানকারীদের**, বিশেষত Rishit Dagli, Muhammad Sakib Khan Inan, Rohan Raj, Alexandru Petrescu, Abhishek Jaiswal, Nawrin Tabassum, Ioan Samuila, এবং Snigdha Agarwal -**🤩 অতিরিক্ত কৃতজ্ঞতা Microsoft Student Ambassadors Eric Wanjau, Jasleen Sondhi, এবং Vidushi Gupta কে আমাদের R পাঠের জন্য!** +**🤩 অতিরিক্ত কৃতজ্ঞতা Microsoft Student Ambassadors Eric Wanjau, Jasleen Sondhi, এবং Vidushi Gupta-এর প্রতি আমাদের R পাঠের জন্য!** -# শুরু করা +# শুরু করা যাক -এই ধাপগুলো অনুসরণ করুন: -1. **রেপোজিটরি Fork করুন**: এই পাতার ডান-উপরের কোণে "Fork" বোতামে ক্লিক করুন। -2. **রেপোজিটরি Clone করুন**: `git clone https://github.com/microsoft/ML-For-Beginners.git` +নিম্নলিখিত ধাপ অনুসরণ করুন: +1. **রিপোজিটরি ফরক করুন**: এই পৃষ্ঠার উপরের ডানদিকে "Fork" বোতামে ক্লিক করুন। +2. **রিপোজিটরি ক্লোন করুন**: `git clone https://github.com/microsoft/ML-For-Beginners.git` -> [এই কোর্সের জন্য সব অতিরিক্ত সম্পদ জানতে আমাদের Microsoft Learn সংগ্রহ দেখুন](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) +> [এই কোর্সের জন্য সকল অতিরিক্ত সম্পদ দেখুন Microsoft Learn সংগ্রহে](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) -> 🔧 **সাহায্য দরকার?** আমাদের [Troubleshooting Guide](TROUBLESHOOTING.md) দেখুন সাধারণ ইনস্টলেশন, সেটআপ এবং লেসন চালানোর সমস্যার সমাধানের জন্য। +> 🔧 ** সাহায্য দরকার?** আমাদের [Troubleshooting Guide](TROUBLESHOOTING.md) দেখুন ইনস্টলেশন, সেটআপ এবং পাঠ চলাকালীন সাধারণ সমস্যার সমাধানের জন্য। -**[ছাত্রছাত্রীদের জন্য](https://aka.ms/student-page)**, এই পাঠক্রমটি ব্যবহার করার জন্য পুরো রেপো আপনার নিজস্ব গিটহাব অ্যাকাউন্টে fork করে একা বা দলের সঙ্গে এক্সারসাইজগুলো সম্পন্ন করুন: +**[শিক্ষার্থীগণ](https://aka.ms/student-page)**, এই পাঠক্রম ব্যবহারের জন্য, আপনার নিজস্ব GitHub একাউন্টে সম্পূর্ণ রিপোজিটরি ফরক করুন এবং একা বা গ্রুপে অনুশীলন করুন: -- একটি প্রাক-লেকচার কুইজ দিয়ে শুরু করুন। -- লেকচার পড়ুন এবং কার্যক্রমগুলো সম্পন্ন করুন, প্রতিটি জ্ঞান পরীক্ষায় থেমে চিন্তা করুন। -- সমাধান কোড চালানোর পরিবর্তে পাঠগুলি বুঝে প্রোজেক্টগুলো তৈরির চেষ্টা করুন; তবে সেই কোড প্রতিটি প্রোজেক্ট-ভিত্তিক পাঠের `/solution` ফোল্ডারে পাওয়া যায়। -- লেকচারের পরে কুইজ দিন। +- একটি পূর্ব-লেকচার কুইজ দিয়ে শুরু করুন। +- লেকচার পড়ুন এবং কার্যকলাপগুলি সম্পন্ন করুন, প্রতিটি জ্ঞান পরীক্ষা অংশে থামুন এবং চিন্তা করুন। +- প্রজেক্ট তৈরি করার চেষ্টা করুন পাঠগুলি বুঝে কোড চালানোর চাইতে; কোডটি আছে প্রতিটি প্রজেক্টভিত্তিক পাঠের `/solution` ফোল্ডারে। +- একটি পরবর্তী-লেকচার কুইজ নিন। - চ্যালেঞ্জ সম্পন্ন করুন। - অ্যাসাইনমেন্ট সম্পন্ন করুন। -- একটি লেসন গ্রুপ শেষ করার পর [Discussion Board](https://github.com/microsoft/ML-For-Beginners/discussions) এ যান এবং উপযুক্ত PAT রুব্রিক পূরণ করে "লাউড লার্নিং" করুন। 'PAT' হল একটি উন্নতির মূল্যায়ন টুল যা আপনার শেখার অগ্রগতি বাড়াতে আপনি পূরণ করেন। আপনি অন্যদের PAT-এ প্রতিক্রিয়া দিতে পারেন যেন আমরা একসাথে শিখতে পারি। +- একটি পাঠ গ্রুপ শেষ করার পর, [Discussion Board](https://github.com/microsoft/ML-For-Beginners/discussions) এ যান এবং "উচ্চস্বরে শিখুন" সংশ্লিষ্ট PAT রুব্রিক পূরণ করে। 'PAT' হল Progress Assessment Tool যা শিক্ষাকে এগিয়ে নিয়ে যায়। আপনি অন্য PAT-র এর প্রতিক্রিয়াও দিতে পারেন যেন আমরা একসাথে শিখতে পারি। -> আরো অধ্যায়নের জন্য আমরা সুপারিশ করি এই [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) মডিউল এবং শেখার পথ অনুসরণ করতে। +> আরও অধ্যায়নের জন্য, আমরা এই [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) মডিউল এবং লার্নিং পাথগুলি অনুসরণ করার পরামর্শ দিই। -**শিক্ষকদের জন্য**, আমরা কিছু [সুপারিশ](for-teachers.md) অন্তর্ভুক্ত করেছি এই পাঠক্রমটি কীভাবে ব্যবহার করবেন। +**শিক্ষকবৃন্দ**, আমরা [কিছু পরামর্শ](for-teachers.md) অন্তর্ভুক্ত করেছি কিভাবে এই পাঠক্রম ব্যবহার করবেন। --- ## ভিডিও ওয়াকথ্রু -কিছু লেসন একদম সংক্ষিপ্ত ভিডিও আকারে পাওয়া যায়। আপনি এই ভিডিওগুলো লেসনের ভিতর দেখতে পারেন, অথবা [Microsoft Developer ইউটিউব চ্যানেলের ML for Beginners প্লেলিস্টে](https://aka.ms/ml-beginners-videos) নিচের ছবিতে ক্লিক করে দেখতে পারেন। +কিছু পাঠ শর্ট ফর্ম ভিডিওর রুপে উপলব্ধ। আপনি এগুলো পাঠের মধ্যে দেখতে পারবেন, অথবা [ML for Beginners প্লেলিস্ট Microsoft Developer YouTube চ্যানেলে](https://aka.ms/ml-beginners-videos) নিচের ছবিতে ক্লিক করে দেখতে পারেন। [![ML for beginners banner](../../translated_images/bn/ml-for-beginners-video-banner.63f694a100034bc6.webp)](https://aka.ms/ml-beginners-videos) --- -## টিমের সাথে পরিচিত হন +## আমাদের দলকে চিনুন [![Promo video](../../images/ml.gif)](https://youtu.be/Tj1XWrDSYJU) -**Gif নির্মাতা** [Mohit Jaisal](https://linkedin.com/in/mohitjaisal) +**GIF করেছেন** [Mohit Jaisal](https://linkedin.com/in/mohitjaisal) -> 🎥 লিংকে ক্লিক করুন প্রকল্প ও যারা এটির নির্মাতা তাদের সম্পর্কে ভিডিও দেখার জন্য! +> 🎥 প্রজেক্ট ও প্রজেক্ট নির্মাতাদের সম্পর্কে একটি ভিডিওর জন্য উপরের ছবিতে ক্লিক করুন! --- ## শিক্ষাদান পদ্ধতি -এই পাঠক্রম নির্মাণে আমরা দুইটি শিক্ষাদানের মূল নীতি বেছে নিয়েছি: এটি হ্যান্ডস-অন **প্রোজেক্ট-ভিত্তিক** এবং এতে **ঘন ঘন কুইজ** রয়েছে। এছাড়া, পাঠক্রমটির একটি সাধারণ **বিষয়বস্তুর থিম** রয়েছে, যা একীকরণ ঘটায়। +এই পাঠক্রম তৈরিতে আমরা দুইটি শিক্ষাদান নীতি বেছে নিয়েছি: এটিকে হ্যান্ডস-অন **প্রজেক্ট-ভিত্তিক** রাখা এবং **সতত কুইজ** অন্তর্ভুক্ত করা। এর পাশাপাশি, একটি সাধারণ **থিম** দিয়ে একত্ববোধ প্রদান করা হয়েছে। -বিষয়বস্তু প্রোজেক্টের সাথে সঙ্গতি রেখে শিক্ষার্থীদের জন্য আরও আকর্ষণীয় করে তোলে এবং ধারণা ধারণক্ষমতা উন্নত হয়। ক্লাসের আগে একটি ছোট পরীক্ষার মাধ্যমে শিক্ষার্থীর শেখার মনোযোগ তৈরি হয়, এবং ক্লাসের পরে দ্বিতীয়টি ধারণার স্থায়িত্ব নিশ্চিত করে। এই পাঠক্রমটি নমনীয় এবং মজার জন্য ডিজাইন করা হয়েছে, পুরোটা বা আংশিক গ্রহণযোগ্য। ১২ সপ্তাহের শুরুর দিকে প্রোজেক্টগুলো ছোট হয়, পরে ক্রমাগত জটিল হয়ে ওঠে। এই পাঠক্রমের শেষে বাস্তব জীবনের ML প্রয়োগ নিয়ে একটি পোস্টস্ক্রিপ্ট অন্তর্ভুক্ত রয়েছে, যা অতিরিক্ত ক্রেডিট বা আলোচনার ভিত্তি হিসেবে ব্যবহার করা যেতে পারে। +বিষয়বস্তুকে প্রজেক্টের সাথে সঙ্গতিপূর্ণ করে শিক্ষার্থীদের জন্য আকর্ষণীয় করে তোলা হয়েছে এবং ধারণাগুলোর ধারণক্ষমতা বাড়ানো হয়েছে। একটি ক্লাস শুরুর আগে একটি হালকা কুইজ শিক্ষার্থীর মনোযোগ তৈরি করে, আর ক্লাসের পরে দ্বিতীয় কুইজ ধারণক্ষমতা নিশ্চিত করে। এই পাঠক্রমটি নমনীয় এবং মজাদার হয়ে তৈরি হয়েছে এবং সম্পূর্ণ বা আংশিক নেওয়া যেতে পারে। প্রজেক্টগুলি ছোট থেকে শুরু করে ১২-সপ্তাহের শেষে ক্রমবর্ধমান জটিল হয়ে ওঠে। বাস্তব জীবনের ML প্রয়োগ নিয়ে একটি পোস্টস্ক্রিপ্টও অন্তর্ভুক্ত যা অতিরিক্ত ক্রেডিট বা আলোচনা ভিত্তি হিসেবে ব্যবহার করা যেতে পারে। -> আমাদের [আচারবিধি](CODE_OF_CONDUCT.md), [অবদান](CONTRIBUTING.md), [অনুবাদ](TRANSLATIONS.md), এবং [Troubleshooting](TROUBLESHOOTING.md) নির্দেশিকা দেখুন। আমরা আপনার গঠনমূলক প্রতিক্রিয়াকে স্বাগত জানাই! +> আমাদের [আচরণ নিয়ম](CODE_OF_CONDUCT.md), [অংশগ্রহণ](CONTRIBUTING.md), [অনুবাদ](TRANSLATIONS.md), এবং [সমস্যা সমাধান](TROUBLESHOOTING.md) গাইডলাইনগুলো খুঁজে পান। আমরা আপনার গঠনমূলক প্রতিক্রিয়া স্বাগত জানাই! -## প্রতিটি লেসনে রয়েছে +## প্রতিটি পাঠে রয়েছে - ঐচ্ছিক স্কেচনোট -- ঐচ্ছিক অতিরিক্ত ভিডিও -- ভিডিও ওয়াকথ্রু (কিছু লেসনে) -- [প্রাক-লেকচার ওয়ার্মআপ কুইজ](https://ff-quizzes.netlify.app/en/ml/) -- লিখিত লেসন -- প্রোজেক্ট-ভিত্তিক লেসনের জন্য, প্রোজেক্ট নির্মাণের ধাপে ধাপে গাইড -- জ্ঞান যাচাই +- ঐচ্ছিক সম্পূরক ভিডিও +- ভিডিও ওয়াকথ্রু (কিছু পাঠে) +- [পূর্ব-লেকচার ওয়ার্মআপ কুইজ](https://ff-quizzes.netlify.app/en/ml/) +- লিখিত পাঠ +- প্রজেক্টভিত্তিক পাঠের জন্য, ধাপে ধাপে গাইডলাইন প্রজেক্ট তৈরির +- জ্ঞান পরীক্ষা - একটি চ্যালেঞ্জ -- অতিরিক্ত পঠন +- সম্পূরক পঠন উপকরণ - অ্যাসাইনমেন্ট -- [পোস্ট-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) - -> **ভাষা সম্পর্কে একটি টিপস**: এই লেসনগুলো মূলত পাইথনে লেখা, তবে অনেকগুলো R-তেও পাওয়া যায়। R লেসন সম্পন্ন করতে, `/solution` ফোল্ডারে R লেসনগুলো খুঁজুন। সেগুলোতে `.rmd` এক্সটেনশন থাকে, যা একটি **R Markdown** ফাইল যা `কোড চাঙ্ক` (R বা অন্যান্য ভাষার) এবং `YAML হেডার` (যা PDF আউটপুটs এর ফরম্যাট নির্দেশ করে) সহ একটি মার্কডাউন ডকুমেন্ট এমবেডিং। এটি একটি দৃষ্টান্তমূলক লেখক ফ্রেমওয়ার্ক হিসেবে কাজ করে কারণ এটি আপনাকে কোড, আউটপুট এবং চিন্তাভাবনাগুলো একসাথে Markdown-এ লেখার সুযোগ দেয়। তদুপরি, R Markdown ডকুমেন্টগুলো PDF, HTML বা Word মত আউটপুট ফরম্যাটে রেন্ডার করা যায়। -> **কুইজ সম্পর্কে একটি নোট**: সমস্ত কুইজ রয়েছে [Quiz App folder](../../quiz-app) এ, যেখানে রয়েছে মোট ৫২টি কুইজ প্রতিটিতে তিনটি প্রশ্ন। এগুলো লেসনের ভিতর থেকে লিঙ্ক করা হয়েছে কিন্তু কুইজ অ্যাপ লোকালি চালানো যেতে পারে; লোকালি হোস্ট বা Azure এ ডিপ্লয় করার জন্য `quiz-app` ফোল্ডারে নির্দেশনাগুলো অনুসরণ করুন। - -| Lesson Number | Topic | Lesson Grouping | Learning Objectives | Linked Lesson | Author | -| :-----------: | :------------------------------------------------------------: | :-------------------------------------------------: | ------------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------: | :--------------------------------------------------: | -| ০১ | মেশিন লার্নিংয়ের প্রবর্তন | [Introduction](1-Introduction/README.md) | মেশিন লার্নিংয়ের মৌলিক ধারণাগুলো শিখুন | [Lesson](1-Introduction/1-intro-to-ML/README.md) | মুহাম্মদ | -| ০২ | মেশিন লার্নিংয়ের ইতিহাস | [Introduction](1-Introduction/README.md) | এই ক্ষেত্রে মৌলিক ইতিহাস শিখুন | [Lesson](1-Introduction/2-history-of-ML/README.md) | জেন ও এমি | -| ০৩ | নিরপেক্ষতা এবং মেশিন লার্নিং | [Introduction](1-Introduction/README.md) | মেশিন লার্নিং মডেল তৈরিতে এবং প্রয়োগে নিরপেক্ষতা সম্পর্কিত গুরুত্বপূর্ণ দার্শনিক বিষয়গুলি ছাত্রদের বিবেচনা করা উচিত কেন? | [Lesson](1-Introduction/3-fairness/README.md) | টোমোমি | -| ০৪ | মেশিন লার্নিংয়ের পদ্ধতিগুলো | [Introduction](1-Introduction/README.md) | মেশিন লার্নিং গবেষকরা কোন পদ্ধতিগুলো ব্যবহার করে মডেল তৈরি করেন? | [Lesson](1-Introduction/4-techniques-of-ML/README.md) | ক্রিস ও জেন | -| ০৫ | রিগ্রেশন প্রবর্তন | [Regression](2-Regression/README.md) | রিগ্রেশন মডেলের জন্য পাইথন এবং Scikit-learn দিয়ে শুরু করুন | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | জেন • এরিক ওয়ানজু | -| ০৬ | উত্তর আমেরিকার কুমড়ো দাম 🎃 | [Regression](2-Regression/README.md) | মেশিন লার্নিং এর জন্য তথ্য ভিজ্যুয়ালাইজ এবং পরিস্কার করা | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | জেন • এরিক ওয়ানজু | -| ০৭ | উত্তর আমেরিকার কুমড়ো দাম 🎃 | [Regression](2-Regression/README.md) | লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন মডেল তৈরি করুন | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | জেন ও Dmitry • এরিক ওয়ানজু | -| ০৮ | উত্তর আমেরিকার কুমড়ো দাম 🎃 | [Regression](2-Regression/README.md) | লজিস্টিক রিগ্রেশন মডেল তৈরি করুন | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | জেন • এরিক ওয়ানজু | -| ০৯ | একটি ওয়েব অ্যাপ 🔌 | [Web App](3-Web-App/README.md) | প্রশিক্ষিত মডেল ব্যবহার করার জন্য একটি ওয়েব অ্যাপ তৈরি করুন | [Python](3-Web-App/1-Web-App/README.md) | জেন | -| ১০ | শ্রেণীবিন্যাসের প্রবর্তন | [Classification](4-Classification/README.md) | তথ্য পরিস্কার, প্রস্তুতকরণ এবং ভিজ্যুয়ালাইজ করুন; শ্রেণীবিন্যাসে প্রবর্তন | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | জেন ও কেসি • এরিক ওয়ানজু | -| ১১ | সুস্বাদু এশিয়ান এবং ভারতীয় রান্না 🍜 | [Classification](4-Classification/README.md) | শ্রেণীবিন্য fieldায়ক পরিচিতি | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | জেন ও কেসি • এরিক ওয়ানজু | -| ১২ | সুস্বাদু এশিয়ান এবং ভারতীয় রান্না 🍜 | [Classification](4-Classification/README.md) | আরো শ্রেণীবিন্য fieldায়ক | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | জেন ও কেসি • এরিক ওয়ানজু | -| ১৩ | সুস্বাদু এশিয়ান এবং ভারতীয় রান্না 🍜 | [Classification](4-Classification/README.md) | আপনার মডেল ব্যবহার করে একটি রিকমেন্ডার ওয়েব অ্যাপ তৈরি করুন | [Python](4-Classification/4-Applied/README.md) | জেন | -| ১৪ | ক্লাস্টারিং প্রবর্তন | [Clustering](5-Clustering/README.md) | তথ্য পরিষ্কার করুন, প্রস্তুত করুন, ভিজ্যুয়ালাইজ করুন; ক্লাস্টারিংয়ের প্রবর্তন | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | জেন • এরিক ওয়ানজু | -| ১৫ | নাইজেরিয়ার সঙ্গীত রুচি অনুসন্ধান 🎧 | [Clustering](5-Clustering/README.md) | K-Means ক্লাস্টারিং পদ্ধতি অনুসন্ধান করুন | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | জেন • এরিক ওয়ানজু | -| ১৬ | প্রাকৃতিক ভাষা প্রক্রিয়াকরণ প্রবর্তন ☕️ | [Natural language processing](6-NLP/README.md) | একটি সাধারণ বট তৈরি করে NLP এর মৌলিক জ্ঞান অর্জন করুন | [Python](6-NLP/1-Introduction-to-NLP/README.md) | স্টিফেন | -| ১৭ | সাধারণ NLP কাজসমূহ ☕️ | [Natural language processing](6-NLP/README.md) | ভাষা গঠন সম্পর্কিত সাধারণ কাজগুলি বুঝে আপনার NLP জ্ঞান গভীর করুন | [Python](6-NLP/2-Tasks/README.md) | স্টিফেন | -| ১৮ | অনুবাদ এবং অনুভূতি বিশ্লেষণ ♥️ | [Natural language processing](6-NLP/README.md) | জেন অস্টেনের সাহায্যে অনুবাদ ও অনুভূতি বিশ্লেষণ | [Python](6-NLP/3-Translation-Sentiment/README.md) | স্টিফেন | -| ১৯ | ইউরোপের রোমান্টিক হোটেল ♥️ | [Natural language processing](6-NLP/README.md) | হোটেল পর্যালোচনার মাধ্যমে অনুভূতি বিশ্লেষণ ১ | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | স্টিফেন | -| ২০ | ইউরোপের রোমান্টিক হোটেল ♥️ | [Natural language processing](6-NLP/README.md) | হোটেল পর্যালোচনার মাধ্যমে অনুভূতি বিশ্লেষণ ২ | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | স্টিফেন | -| ২১ | টাইম সিরিজ ভবিষ্যদ্বাণীর প্রবর্তন | [Time series](7-TimeSeries/README.md) | টাইম সিরিজ ভবিষ্যদ্বাণীর প্রবর্তন | [Python](7-TimeSeries/1-Introduction/README.md) | ফ্রান্সেসকা | -| ২২ | ⚡️ বিশ্ব শক্তি ব্যবহার ⚡️ - ARIMA সহ টাইম সিরিজ ভবিষ্যদ্বাণী | [Time series](7-TimeSeries/README.md) | ARIMA সহ টাইম সিরিজ ভবিষ্যদ্বাণী | [Python](7-TimeSeries/2-ARIMA/README.md) | ফ্রান্সেসকা | -| ২৩ | ⚡️ বিশ্ব শক্তি ব্যবহার ⚡️ - SVR সহ টাইম সিরিজ ভবিষ্যদ্বাণী | [Time series](7-TimeSeries/README.md) | সাপোর্ট ভেক্টর রিগ্রেসর সহ টাইম সিরিজ ভবিষ্যদ্বাণী | [Python](7-TimeSeries/3-SVR/README.md) | অনির্বাণ | -| ২৪ | রিইনফোর্সমেন্ট লার্নিং প্রবর্তন | [Reinforcement learning](8-Reinforcement/README.md) | Q-Learning সহ রিইনফোর্সমেন্ট লার্নিংয়ের প্রবর্তন | [Python](8-Reinforcement/1-QLearning/README.md) | Dmitry | -| ২৫ | পিটারকে নেকড়ে থেকে বাঁচান! 🐺 | [Reinforcement learning](8-Reinforcement/README.md) | রিইনফোর্সমেন্ট লার্নিং জিম | [Python](8-Reinforcement/2-Gym/README.md) | Dmitry | -| Postscript | বাস্তব পৃথিবীর ML পরিস্থিতি ও প্রয়োগ | [ML in the Wild](9-Real-World/README.md) | ক্লাসিক মেশিন লার্নিং এর আকর্ষণীয় এবং প্রকাশক বাস্তব প্রয়োগ | [Lesson](9-Real-World/1-Applications/README.md) | টিম | -| Postscript | RAI ড্যাশবোর্ড ব্যবহার করে ML মডেল ডিবাগিং | [ML in the Wild](9-Real-World/README.md) | রেসপন্সিব AI ড্যাশবোর্ড কম্পোনেন্ট ব্যবহার করে মডেল ডিবাগিং | [Lesson](9-Real-World/2-Debugging-ML-Models/README.md) | রুথ ইয়াকুবু | - -> [এই কোর্সের সকল অতিরিক্ত সম্পদ আমাদের Microsoft Learn সংগ্রহে পাবেন](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) +- [পরবর্তী-লেকচার কুইজ](https://ff-quizzes.netlify.app/en/ml/) +> **ভাষা সম্পর্কে একটি নোট**: এই পাঠগুলি প্রধানত পাইথনে লেখা হয়েছে, তবে অনেকগুলি R-এও উপলব্ধ। একটি R পাঠ সম্পন্ন করতে, `/solution` ফোল্ডারে যান এবং R পাঠগুলি দেখুন। সেগুলিতে একটি .rmd এক্সটেনশন থাকে যা একটি **R Markdown** ফাইল বোঝায়, যা সহজভাবে সংজ্ঞায়িত করা যায় `কোড চাঙ্ক` (R বা অন্যান্য ভাষার) এবং একটি `YAML শিরোনাম` (যা আউটপুট যেমন PDF ফরম্যাট করার নির্দেশনা দেয়) সহ একটি `Markdown ডকুমেন্ট` হিসেবে। এভাবে, এটি একটি আদর্শ লেখালেখির ফ্রেমওয়ার্ক হিসাবে কাজ করে কারণ এটি আপনাকে আপনার কোড, তার আউটপুট, এবং আপনার চিন্তাধারা মিলিয়ে Markdown-এ লেখা সম্ভব করে। আরো, R Markdown ডকুমেন্টগুলো PDF, HTML, বা Word-এর মত আউটপুট ফরম্যাটে রেন্ডার করা যায়। + +> **কুইজ সম্পর্কে একটি নোট**: সব কুইজ [Quiz App folder](../../quiz-app) এ অন্তর্ভুক্ত, মোট ৫২টি কুইজ তিনটি প্রশ্নসহ। সেগুলি পাঠের মধ্যে লিঙ্ক করা হয়েছে, তবে কুইজ অ্যাপটি স্থানীয়ভাবে চালানো যেতে পারে; `quiz-app` ফোল্ডারে নির্দেশিকা অনুসরণ করে স্থানীয়ভাবে হোস্ট বা Azure-তে ডিপ্লয় করুন। + +| পাঠ নম্বর | বিষয় | পাঠ গ্রুপিং | শেখার উদ্দেশ্য | লিঙ্ক করা পাঠ | লেখক | +| :-------: | :------------------------------------------------------------: | :----------------------------------------------: | --------------------------------------------------------------------------------------------------------------------------- | :---------------------------------------------------------------------------------------------------------------------------------------: | :----------------------------------------------: | +| ০১ | মেশিন লার্নিংয়ের পরিচিতি | [Introduction](1-Introduction/README.md) | মেশিন লার্নিংয়ের মৌলিক ধারণা শিখুন | [Lesson](1-Introduction/1-intro-to-ML/README.md) | Muhammad | +| ০২ | মেশিন লার্নিংয়ের ইতিহাস | [Introduction](1-Introduction/README.md) | এই ক্ষেত্রের ইতিহাস শিখুন | [Lesson](1-Introduction/2-history-of-ML/README.md) | Jen and Amy | +| ০৩ | ন্যায্যতা ও মেশিন লার্নিং | [Introduction](1-Introduction/README.md) | ন্যায্যতা সম্পর্কে গুরুত্বপূর্ণ দার্শনিক বিষয়সমূহ যা ছাত্রদের মেশিন লার্নিং মডেল তৈরি ও প্রয়োগের সময় বিবেচনা করা উচিত তা বুঝুন। | [Lesson](1-Introduction/3-fairness/README.md) | Tomomi | +| ০৪ | মেশিন লার্নিংয়ের কৌশলসমূহ | [Introduction](1-Introduction/README.md) | মেশিন লার্নিং গবেষকরা মডেল তৈরিতে কী কী কৌশল ব্যবহার করে তা জানতে চান? | [Lesson](1-Introduction/4-techniques-of-ML/README.md) | Chris and Jen | +| ০৫ | রিগ্রেশন পরিচিতি | [Regression](2-Regression/README.md) | রিগ্রেশন মডেলের জন্য পাইথন এবং Scikit-learn দিয়ে শুরু করুন | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | Jen • Eric Wanjau | +| ০৬ | নর্থ আমেরিকার কুমড়োর দাম 🎃 | [Regression](2-Regression/README.md) | মেশিন লার্নিং-এর জন্য তথ্য ভিজ্যুয়ালাইজেশন ও পরিস্কার করুন | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | Jen • Eric Wanjau | +| ০৭ | নর্থ আমেরিকার কুমড়োর দাম 🎃 | [Regression](2-Regression/README.md) | লিনিয়ার এবং পলিনোমিয়াল রিগ্রেশন মডেল তৈরি করুন | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | Jen and Dmitry • Eric Wanjau | +| ০৮ | নর্থ আমেরিকার কুমড়োর দাম 🎃 | [Regression](2-Regression/README.md) | লজিস্টিক রিগ্রেশন মডেল তৈরি করুন | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | Jen • Eric Wanjau | +| ০৯ | একটি ওয়েব অ্যাপ 🔌 | [Web App](3-Web-App/README.md) | আপনার প্রশিক্ষিত মডেল ব্যবহারের জন্য একটি ওয়েব অ্যাপ তৈরি করুন | [Python](3-Web-App/1-Web-App/README.md) | Jen | +| ১০ | শ্রেণীবিভাগের পরিচিতি | [Classification](4-Classification/README.md) | আপনার ডেটা পরিস্কার, প্রস্তুত ও ভিজ্যুয়ালাইজ করুন; শ্রেণীবিভাগের পরিচিতি | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | Jen and Cassie • Eric Wanjau | +| ১১ | সুস্বাদু এশিয়ান ও ভারতীয় রন্ধনপ্রণালী 🍜 | [Classification](4-Classification/README.md) | শ্রেণীবিভাগকারীদের পরিচিতি | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | Jen and Cassie • Eric Wanjau | +| ১২ | সুস্বাদু এশিয়ান ও ভারতীয় রন্ধনপ্রণালী 🍜 | [Classification](4-Classification/README.md) | আরও শ্রেণীবিভাগকারী | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | Jen and Cassie • Eric Wanjau | +| ১৩ | সুস্বাদু এশিয়ান ও ভারতীয় রন্ধনপ্রণালী 🍜 | [Classification](4-Classification/README.md) | আপনার মডেল ব্যবহার করে একটি রিকমেন্ডার ওয়েব অ্যাপ তৈরি করুন | [Python](4-Classification/4-Applied/README.md) | Jen | +| ১৪ | ক্লাস্টারিংয়ের পরিচিতি | [Clustering](5-Clustering/README.md) | আপনার ডেটা পরিস্কার, প্রস্তুত, ও ভিজ্যুয়ালাইজ করুন; ক্লাস্টারিং-এ পরিচিতি | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | Jen • Eric Wanjau | +| ১৫ | নাইজেরিয়ান সঙ্গীত রুচি অন্বেষণ 🎧 | [Clustering](5-Clustering/README.md) | K-Means ক্লাস্টারিং পদ্ধতি অন্বেষণ করুন | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | Jen • Eric Wanjau | +| ১৬ | প্রাকৃতিক ভাষা প্রক্রিয়াকরণের পরিচিতি ☕️ | [Natural language processing](6-NLP/README.md) | একটি সাধারণ বট তৈরি করে NLP-এর মৌলিক বিষয়গুলো শিখুন | [Python](6-NLP/1-Introduction-to-NLP/README.md) | Stephen | +| ১৭ | সাধারণ NLP কাজসমূহ ☕️ | [Natural language processing](6-NLP/README.md) | ভাষাগত কাঠামোগত ডিল করার সময় প্রয়োজনীয় সাধারণ কাজগুলি বোঝার মাধ্যমে আপনার NLP জ্ঞান গভীর করুন | [Python](6-NLP/2-Tasks/README.md) | Stephen | +| ১৮ | অনুবাদ ও অনুভূতি বিশ্লেষণ ♥️ | [Natural language processing](6-NLP/README.md) | Jane Austen-এর সঙ্গে অনুবাদ এবং অনুভূতি বিশ্লেষণ | [Python](6-NLP/3-Translation-Sentiment/README.md) | Stephen | +| ১৯ | ইউরোপের রোমান্টিক হোটেলগুলি ♥️ | [Natural language processing](6-NLP/README.md) | হোটেল রিভিউ ১ দিয়ে অনুভূতি বিশ্লেষণ | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | Stephen | +| ২০ | ইউরোপের রোমান্টিক হোটেলগুলি ♥️ | [Natural language processing](6-NLP/README.md) | হোটেল রিভিউ ২ দিয়ে অনুভূতি বিশ্লেষণ | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | Stephen | +| ২১ | টাইম সিরিজ ফরকাস্টিংয়ের পরিচিতি | [Time series](7-TimeSeries/README.md) | টাইম সিরিজ ফরকাস্টিংয়ের পরিচিতি | [Python](7-TimeSeries/1-Introduction/README.md) | Francesca | +| ২২ | ⚡️ বিশ্ববিদ্যুৎ ব্যবহার ⚡️ - ARIMA সহ টাইম সিরিজ ফরকাস্টিং | [Time series](7-TimeSeries/README.md) | ARIMA সহ টাইম সিরিজ ফরকাস্টিং | [Python](7-TimeSeries/2-ARIMA/README.md) | Francesca | +| ২৩ | ⚡️ বিশ্ববিদ্যুৎ ব্যবহার ⚡️ - SVR সহ টাইম সিরিজ ফরকাস্টিং | [Time series](7-TimeSeries/README.md) | সাপোর্ট ভেক্টর রিগ্রেসরের সঙ্গে টাইম সিরিজ ফরকাস্টিং | [Python](7-TimeSeries/3-SVR/README.md) | Anirban | +| ২৪ | রিইনফোর্সমেন্ট লার্নিংয়ের পরিচিতি | [Reinforcement learning](8-Reinforcement/README.md) | Q-Learning সহ রিইনফোর্সমেন্ট লার্নিংয়ের পরিচিতি | [Python](8-Reinforcement/1-QLearning/README.md) | Dmitry | +| ২৫ | পিটারকে নেকড়েকে এড়াতে সাহায্য করুন! 🐺 | [Reinforcement learning](8-Reinforcement/README.md) | রিইনফোর্সমেন্ট লার্নিং জিম | [Python](8-Reinforcement/2-Gym/README.md) | Dmitry | +| পরিশিষ্ট | বাস্তব বিশ্বের মেশিন লার্নিং পরিস্থিতি ও প্রয়োগ | [ML in the Wild](9-Real-World/README.md) | ক্লাসিক মেশিন লার্নিংয়ের মজার এবং প্রকাশক বাস্তব অ্যাপ্লিকেশন | [Lesson](9-Real-World/1-Applications/README.md) | Team | +| পরিশিষ্ট | RAI ড্যাশবোর্ড ব্যবহার করে মডেল ডিবাগিং | [ML in the Wild](9-Real-World/README.md) | রেসপন্সিবল AI ড্যাশবোর্ড উপাদান ব্যবহার করে মেশিন লার্নিংয়ে মডেল ডিবাগিং | [Lesson](9-Real-World/2-Debugging-ML-Models/README.md) | Ruth Yakubu | + +> [এই কোর্সের জন্য আমাদের Microsoft Learn কালেকশনে সব অতিরিক্ত সম্পদগুলি খুঁজুন](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) ## অফলাইন অ্যাক্সেস -আপনি [Docsify](https://docsify.js.org/#/) ব্যবহার করে এই ডকুমেন্টেশন অফলাইনে চালাতে পারেন। এই রিপোসিটরটি ফর্ক করুন, আপনার লোকাল মেশিনে [Docsify ইন্সটল করুন](https://docsify.js.org/#/quickstart), তারপর এই রিপোটি রুট ফোল্ডারে `docsify serve` টাইপ করুন। ওয়েবসাইটটি আপনার লোকালহোস্টে পোর্ট ৩০০০ এ চালু হবে: `localhost:3000`। +আপনি [Docsify](https://docsify.js.org/#/) ব্যবহার করে এই ডকুমেন্টেশন অফলাইনে চালাতে পারবেন। এই রিপোটি ফর্ক করুন, আপনার লোকাল মেশিনে [Docsify ইনস্টল করুন](https://docsify.js.org/#/quickstart), এবং তারপর এই রিপোর মূল ফোল্ডারে টাইপ করুন `docsify serve`। ওয়েবসাইটটি আপনার লোকালহোস্টে ৩০০০ পোর্টে পরিবেশিত হবে: `localhost:3000`। -## পিডিএফ ফাইল +## PDF -পরিকল্পনার একটি পিডিএফ ফাইল লিঙ্কসহ [এখানে](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf) পাওয়া যাবে। +লিঙ্ক সহ কারিকুলামের একটি পিডিএফ [এখানে](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf) পাওয়া যাবে। -## 🎒 অন্যান্য কোর্স +## 🎒 অন্যান্য কোর্সসমূহ -আমাদের টিম অন্যান্য কোর্সও তৈরি করে! দেখুন: +আমাদের টিম অন্যান্য কোর্সও তৈরি করে! দেখে নিন: ### LangChain @@ -178,44 +188,49 @@ --- -### Generative AI Series -[![শিক্ষার্থীদের জন্য জেনারেটিভ AI](https://img.shields.io/badge/Generative%20AI%20for%20Beginners-8B5CF6?style=for-the-badge&labelColor=E5E7EB&color=8B5CF6)](https://github.com/microsoft/generative-ai-for-beginners?WT.mc_id=academic-105485-koreyst) -[![জেনারেটিভ AI (.NET)](https://img.shields.io/badge/Generative%20AI%20(.NET)-9333EA?style=for-the-badge&labelColor=E5E7EB&color=9333EA)](https://github.com/microsoft/Generative-AI-for-beginners-dotnet?WT.mc_id=academic-105485-koreyst) -[![জেনারেটিভ AI (Java)](https://img.shields.io/badge/Generative%20AI%20(Java)-C084FC?style=for-the-badge&labelColor=E5E7EB&color=C084FC)](https://github.com/microsoft/generative-ai-for-beginners-java?WT.mc_id=academic-105485-koreyst) -[![জেনারেটিভ AI (JavaScript)](https://img.shields.io/badge/Generative%20AI%20(JavaScript)-E879F9?style=for-the-badge&labelColor=E5E7EB&color=E879F9)](https://github.com/microsoft/generative-ai-with-javascript?WT.mc_id=academic-105485-koreyst) +### জেনারেটিভ AI সিরিজ +[![Generative AI for Beginners](https://img.shields.io/badge/Generative%20AI%20for%20Beginners-8B5CF6?style=for-the-badge&labelColor=E5E7EB&color=8B5CF6)](https://github.com/microsoft/generative-ai-for-beginners?WT.mc_id=academic-105485-koreyst) +[![Generative AI (.NET)](https://img.shields.io/badge/Generative%20AI%20(.NET)-9333EA?style=for-the-badge&labelColor=E5E7EB&color=9333EA)](https://github.com/microsoft/Generative-AI-for-beginners-dotnet?WT.mc_id=academic-105485-koreyst) +[![Generative AI (Java)](https://img.shields.io/badge/Generative%20AI%20(Java)-C084FC?style=for-the-badge&labelColor=E5E7EB&color=C084FC)](https://github.com/microsoft/generative-ai-for-beginners-java?WT.mc_id=academic-105485-koreyst) +[![Generative AI (JavaScript)](https://img.shields.io/badge/Generative%20AI%20(JavaScript)-E879F9?style=for-the-badge&labelColor=E5E7EB&color=E879F9)](https://github.com/microsoft/generative-ai-with-javascript?WT.mc_id=academic-105485-koreyst) --- -### মূল শেখা -[![শিক্ষার্থীদের জন্য এমএল](https://img.shields.io/badge/ML%20for%20Beginners-22C55E?style=for-the-badge&labelColor=E5E7EB&color=22C55E)](https://aka.ms/ml-beginners?WT.mc_id=academic-105485-koreyst) -[![শিক্ষার্থীদের জন্য ডেটা সায়েন্স](https://img.shields.io/badge/Data%20Science%20for%20Beginners-84CC16?style=for-the-badge&labelColor=E5E7EB&color=84CC16)](https://aka.ms/datascience-beginners?WT.mc_id=academic-105485-koreyst) -[![শিক্ষার্থীদের জন্য এআই](https://img.shields.io/badge/AI%20for%20Beginners-A3E635?style=for-the-badge&labelColor=E5E7EB&color=A3E635)](https://aka.ms/ai-beginners?WT.mc_id=academic-105485-koreyst) -[![শিক্ষার্থীদের জন্য সাইবারসিকিউরিটি](https://img.shields.io/badge/Cybersecurity%20for%20Beginners-F97316?style=for-the-badge&labelColor=E5E7EB&color=F97316)](https://github.com/microsoft/Security-101?WT.mc_id=academic-96948-sayoung) -[![শিক্ষার্থীদের জন্য ওয়েব ডেভ](https://img.shields.io/badge/Web%20Dev%20for%20Beginners-EC4899?style=for-the-badge&labelColor=E5E7EB&color=EC4899)](https://aka.ms/webdev-beginners?WT.mc_id=academic-105485-koreyst) -[![শিক্ষার্থীদের জন্য আইওটি](https://img.shields.io/badge/IoT%20for%20Beginners-14B8A6?style=for-the-badge&labelColor=E5E7EB&color=14B8A6)](https://aka.ms/iot-beginners?WT.mc_id=academic-105485-koreyst) -[![শিক্ষার্থীদের জন্য এক্সআর ডেভেলপমেন্ট](https://img.shields.io/badge/XR%20Development%20for%20Beginners-38BDF8?style=for-the-badge&labelColor=E5E7EB&color=38BDF8)](https://github.com/microsoft/xr-development-for-beginners?WT.mc_id=academic-105485-koreyst) +### মূল শিক্ষা +[![ML for Beginners](https://img.shields.io/badge/ML%20for%20Beginners-22C55E?style=for-the-badge&labelColor=E5E7EB&color=22C55E)](https://aka.ms/ml-beginners?WT.mc_id=academic-105485-koreyst) +[![Data Science for Beginners](https://img.shields.io/badge/Data%20Science%20for%20Beginners-84CC16?style=for-the-badge&labelColor=E5E7EB&color=84CC16)](https://aka.ms/datascience-beginners?WT.mc_id=academic-105485-koreyst) +[![AI for Beginners](https://img.shields.io/badge/AI%20for%20Beginners-A3E635?style=for-the-badge&labelColor=E5E7EB&color=A3E635)](https://aka.ms/ai-beginners?WT.mc_id=academic-105485-koreyst) +[![Cybersecurity for Beginners](https://img.shields.io/badge/Cybersecurity%20for%20Beginners-F97316?style=for-the-badge&labelColor=E5E7EB&color=F97316)](https://github.com/microsoft/Security-101?WT.mc_id=academic-96948-sayoung) +[![Web Dev for Beginners](https://img.shields.io/badge/Web%20Dev%20for%20Beginners-EC4899?style=for-the-badge&labelColor=E5E7EB&color=EC4899)](https://aka.ms/webdev-beginners?WT.mc_id=academic-105485-koreyst) +[![IoT for Beginners](https://img.shields.io/badge/IoT%20for%20Beginners-14B8A6?style=for-the-badge&labelColor=E5E7EB&color=14B8A6)](https://aka.ms/iot-beginners?WT.mc_id=academic-105485-koreyst) +[![XR Development for Beginners](https://img.shields.io/badge/XR%20Development%20for%20Beginners-38BDF8?style=for-the-badge&labelColor=E5E7EB&color=38BDF8)](https://github.com/microsoft/xr-development-for-beginners?WT.mc_id=academic-105485-koreyst) --- -### কোপাইলট সিরিজ -[![এআই সহযোগী প্রোগ্রামিংয়ের জন্য কোপাইলট](https://img.shields.io/badge/Copilot%20for%20AI%20Paired%20Programming-FACC15?style=for-the-badge&labelColor=E5E7EB&color=FACC15)](https://aka.ms/GitHubCopilotAI?WT.mc_id=academic-105485-koreyst) -[![C#/.NET এর জন্য কোপাইলট](https://img.shields.io/badge/Copilot%20for%20C%23/.NET-FBBF24?style=for-the-badge&labelColor=E5E7EB&color=FBBF24)](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers?WT.mc_id=academic-105485-koreyst) -[![কোপাইলট অ্যাডভেঞ্চার](https://img.shields.io/badge/Copilot%20Adventure-FDE68A?style=for-the-badge&labelColor=E5E7EB&color=FDE68A)](https://github.com/microsoft/CopilotAdventures?WT.mc_id=academic-105485-koreyst) +### কোপিলট সিরিজ +[![Copilot for AI Paired Programming](https://img.shields.io/badge/Copilot%20for%20AI%20Paired%20Programming-FACC15?style=for-the-badge&labelColor=E5E7EB&color=FACC15)](https://aka.ms/GitHubCopilotAI?WT.mc_id=academic-105485-koreyst) +[![Copilot for C#/.NET](https://img.shields.io/badge/Copilot%20for%20C%23/.NET-FBBF24?style=for-the-badge&labelColor=E5E7EB&color=FBBF24)](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers?WT.mc_id=academic-105485-koreyst) +[![Copilot Adventure](https://img.shields.io/badge/Copilot%20Adventure-FDE68A?style=for-the-badge&labelColor=E5E7EB&color=FDE68A)](https://github.com/microsoft/CopilotAdventures?WT.mc_id=academic-105485-koreyst) -## সহায়তা পাওয়া +## সাহায্য নেওয়া + +যদি আপনি আটকে যান বা AI অ্যাপ তৈরি সম্পর্কে কোনও প্রশ্ন থাকে। MCP সম্পর্কে আলোচনা করতে সহপাঠী শিক্ষার্থী এবং অভিজ্ঞ বিকাশকারীদের সঙ্গে যোগদান করুন। এটি একটি সহায়ক সম্প্রদায় যেখানে প্রশ্ন歓迎 এবং জ্ঞান মুক্তভাবে শেয়ার করা হয়। -যদি আপনি আটকে যান বা AI অ্যাপ তৈরি সম্পর্কে কোনো প্রশ্ন থাকে। সহপাঠী শিক্ষার্থী এবং অভিজ্ঞ ডেভেলপারদের সাথে MCP নিয়ে আলোচনা করুন। এটি একটি সহায়ক সম্প্রদায় যেখানে প্রশ্ন স্বাগত এবং জ্ঞান মুক্তভাবে ভাগ করা হয়। +[![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -[![মাইক্রোসফট ফাউন্ড্রি ডিসকর্ড](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) +যদি আপনার পণ্য সম্পর্কে প্রতিক্রিয়া বা ত্রুটি থাকে, তবে ভিজিট করুন: -যদি আপনার পণ্যের প্রতিক্রিয়া বা নির্মাণের সময় ত্রুটি থাকে, যান: +[![Microsoft Foundry Developer Forum](https://img.shields.io/badge/GitHub-Microsoft_Foundry_Developer_Forum-blue?style=for-the-badge&logo=github&color=000000&logoColor=fff)](https://aka.ms/foundry/forum) +## অতিরিক্ত শেখার পরামর্শ -[![মাইক্রোসফট ফাউন্ড্রি ডেভেলপার ফোরাম](https://img.shields.io/badge/GitHub-Microsoft_Foundry_Developer_Forum-blue?style=for-the-badge&logo=github&color=000000&logoColor=fff)](https://aka.ms/foundry/forum) +- প্রতিটি পাঠের পরে নোটবুকগুলো পর্যালোচনা করুন ভালো বোঝার জন্য। +- নিজে নিজে অ্যালগরিদম বাস্তবায়নের অনুশীলন করুন। +- শেখা ধারণাগুলো ব্যবহার করে বাস্তব বিশ্ব ডেটাসেট অন্বেষণ করুন। --- -**অস্বীকারোক্তি**: -এই দলিলটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) এর মাধ্যমে অনূদিত হয়েছে। আমরা যথাসাধ্য সঠিকতার চেষ্টা করি, তবে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসামঞ্জস্য থাকতে পারে। মূল ভাষায় থাকা মূল দলিলকে কর্তৃপক্ষপূর্ণ উৎস হিসেবে বিবেচনা করা উচিত। গুরুত্বপূর্ণ তথ্যের জন্য পেশাদার মানব অনুবাদের পরামর্শ দেওয়া হয়। এই অনুবাদের ব্যবহারে উদ্ভূত কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই। +**অস্বীকৃতি**: +এই দলিলটি AI অনুবাদ সেবা [Co-op Translator](https://github.com/Azure/co-op-translator) ব্যবহার করে অনূদিত হয়েছে। আমরা যথাসাধ্য সঠিকতার জন্য চেষ্টা করি, তবে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা আসল দলিলটিকেই কর্তৃত্বমূলক উৎস হিসেবে গণ্য করা উচিত। জরুরি তথ্যের জন্য পেশাদার মানের মানুষের দ্বারা অনুবাদ করানো উচিৎ। এই অনুবাদের ব্যবহারে সৃষ্ট কোনো ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়িত্বশীল নই। \ No newline at end of file diff --git a/translations/mr/.co-op-translator.json b/translations/mr/.co-op-translator.json index 9214f0a11..382a3607c 100644 --- a/translations/mr/.co-op-translator.json +++ b/translations/mr/.co-op-translator.json @@ -30,8 +30,8 @@ "language_code": "mr" }, "1-Introduction/3-fairness/assignment.md": { - "original_hash": "dbda60e7b1fe5f18974e7858eff0004e", - "translation_date": "2025-08-29T17:34:34+00:00", + "original_hash": "c81d9affadb89d017d610eadeb6c84f9", + "translation_date": "2026-02-28T11:34:35+00:00", "source_file": "1-Introduction/3-fairness/assignment.md", "language_code": "mr" }, @@ -90,8 +90,8 @@ "language_code": "mr" }, "2-Regression/3-Linear/README.md": { - "original_hash": "40e64f004f3cb50aa1d8661672d3cd92", - "translation_date": "2025-09-06T06:04:01+00:00", + "original_hash": "9a8359f1945bd3beccccb2b46592580e", + "translation_date": "2026-02-28T11:37:54+00:00", "source_file": "2-Regression/3-Linear/README.md", "language_code": "mr" }, @@ -186,8 +186,8 @@ "language_code": "mr" }, "4-Classification/3-Classifiers-2/README.md": { - "original_hash": "49047911108adc49d605cddfb455749c", - "translation_date": "2025-09-06T06:17:10+00:00", + "original_hash": "d94438d71164b0ff68002812aed1a8b4", + "translation_date": "2026-02-28T11:38:17+00:00", "source_file": "4-Classification/3-Classifiers-2/README.md", "language_code": "mr" }, @@ -197,12 +197,24 @@ "source_file": "4-Classification/3-Classifiers-2/assignment.md", "language_code": "mr" }, + "4-Classification/3-Classifiers-2/notebook.ipynb": { + "original_hash": "624ca6cf73d3548ff1b3059e413fa4cd", + "translation_date": "2026-02-28T11:29:20+00:00", + "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", + "language_code": "mr" + }, "4-Classification/3-Classifiers-2/solution/Julia/README.md": { "original_hash": "a39c15d63f3b2795ee2284a82b986b93", "translation_date": "2025-08-29T17:56:50+00:00", "source_file": "4-Classification/3-Classifiers-2/solution/Julia/README.md", "language_code": "mr" }, + "4-Classification/3-Classifiers-2/solution/notebook.ipynb": { + "original_hash": "70f41fe4fd4253adb44cd9d291406e4f", + "translation_date": "2026-02-28T11:29:26+00:00", + "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", + "language_code": "mr" + }, "4-Classification/4-Applied/README.md": { "original_hash": "61bdec27ed2da8b098cd9065405d9bb0", "translation_date": "2025-09-06T06:16:40+00:00", @@ -540,8 +552,8 @@ "language_code": "mr" }, "README.md": { - "original_hash": "2f594ee136e3127a47f56d80055227bc", - "translation_date": "2026-02-06T07:59:34+00:00", + "original_hash": "3a0286e1c4858e79ff54f080dadc1426", + "translation_date": "2026-02-28T11:34:28+00:00", "source_file": "README.md", "language_code": "mr" }, diff --git a/translations/mr/1-Introduction/3-fairness/assignment.md b/translations/mr/1-Introduction/3-fairness/assignment.md index 2b8a3ab81..64b31cf76 100644 --- a/translations/mr/1-Introduction/3-fairness/assignment.md +++ b/translations/mr/1-Introduction/3-fairness/assignment.md @@ -2,15 +2,17 @@ ## सूचना -या धड्यात तुम्ही जबाबदार AI टूलबॉक्सबद्दल शिकले, जो "डेटा वैज्ञानिकांना AI प्रणालींचे विश्लेषण आणि सुधारणा करण्यासाठी मदत करणारा एक ओपन-सोर्स, समुदाय-चालित प्रकल्प आहे." या असाइनमेंटसाठी, RAI टूलबॉक्सच्या [नोटबुक्स](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/getting-started.ipynb) पैकी एक एक्सप्लोर करा आणि तुमच्या निष्कर्षांची माहिती पेपर किंवा प्रेझेंटेशनमध्ये द्या. +या धड्यात तुम्ही जबाबदार AI टूलबॉक्स विषयी शिकलात, जे एक "ओपन-सोर्स, समुदाय-चालित प्रकल्प आहे जो डेटा शास्त्रज्ञांना AI सिस्टम्सचे विश्लेषण करण्यासाठी आणि सुधारण्यासाठी मदत करतो." या कार्यासाठी, RAI Toolbox मधील एका [नोटबुक](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/tabular/getting-started.ipynb) ची माहिती घेऊन तुमच्या निष्कर्षांची नोंद कागद किंवा सादरीकरणात करा. ## मूल्यांकन निकष -| निकष | उत्कृष्ट | पुरेसे | सुधारणा आवश्यक | +| निकष | उत्कृष्ट | योग्य | सुधारणा आवश्यक | | -------- | --------- | -------- | ----------------- | -| | एक पेपर किंवा पॉवरपॉइंट प्रेझेंटेशन सादर केले जाते ज्यामध्ये Fairlearn च्या प्रणाली, चालवलेला नोटबुक, आणि त्यातून काढलेल्या निष्कर्षांवर चर्चा केली जाते | निष्कर्षांशिवाय एक पेपर सादर केला जातो | कोणताही पेपर सादर केला जात नाही | +| | Fairlearn च्या प्रणालींबाबत, चालवलेल्या नोटबुक बद्दल आणि त्याच्या निष्कर्षावर चर्चा करणारा कागद किंवा पॉवरपॉईंट सादरीकरण सादर केले जाते | निष्कर्षांशिवाय एक कागद सादर केला जातो | कोणताही कागद सादर केलेला नाही | --- + **अस्वीकरण**: -हा दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात ठेवा की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील दस्तऐवज हा अधिकृत स्रोत मानावा. महत्त्वाच्या माहितीसाठी, व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर करून उद्भवलेल्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही. \ No newline at end of file +हा दस्तऐवज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून अनुवादित केला गेला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात घ्या की स्वयंचलित अनुवादांमध्ये चुका किंवा अचूकतेची कमतरता असू शकते. मूळ दस्तऐवज त्याच्या स्थानिक भाषेत अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी अनुवादाची शिफारस केली जाते. या अनुवादाच्या वापराबद्दल उद्भवलेल्या कोणत्याही गैरसमजुती किंवा चुकीच्या अर्थग्रहणासाठी आम्ही जबाबदार नाही. + \ No newline at end of file diff --git a/translations/mr/2-Regression/3-Linear/README.md b/translations/mr/2-Regression/3-Linear/README.md index 58f32cde0..2d8b1daa0 100644 --- a/translations/mr/2-Regression/3-Linear/README.md +++ b/translations/mr/2-Regression/3-Linear/README.md @@ -1,127 +1,136 @@ -# Scikit-learn वापरून रिग्रेशन मॉडेल तयार करा: चार प्रकारे रिग्रेशन +# स्कायट-लर्न वापरून रिग्रेशन मॉडेल तयार करा: रिग्रेशन चार प्रकारे -![रेखीय वि. बहुपद रिग्रेशन माहितीग्राफिक](../../../../2-Regression/3-Linear/images/linear-polynomial.png) -> माहितीग्राफिक [दसानी मदीपल्ली](https://twitter.com/dasani_decoded) यांच्याकडून +## सुरुवातीसाठी टीप -## [पूर्व-व्याख्यान क्विझ](https://ff-quizzes.netlify.app/en/ml/) +रेखीय रिग्रेशन तेव्हा वापरले जाते जेव्हा आपल्याला **संख्यात्मक मूल्य** (उदाहरणार्थ, घरांची किंमत, तापमान, किंवा विक्री) भाकित करायचे असते. +हे इनपुट वैशिष्ट्ये आणि आउटपुटमधील संबंध सर्वोत्तम रीतीने दर्शविणारी सरळ रेषा शोधून कार्य करते. -> ### [हा धडा R मध्ये उपलब्ध आहे!](../../../../2-Regression/3-Linear/solution/R/lesson_3.html) +या धड्यात, आम्ही पूर्वीच्या अधिक प्रगत रिग्रेशन तंत्रांचा अभ्यास करण्याआधी संकल्पना समजण्यावर भर देतो. +![Linear vs polynomial regression infographic](../../../../translated_images/mr/linear-polynomial.5523c7cb6576ccab.webp) +> इन्फोग्राफिक द्वारे [दसनी मडिपल्ली](https://twitter.com/dasani_decoded) +## [पूर्व-पाठ क्विझ](https://ff-quizzes.netlify.app/en/ml/) +> ### [हा धडा R मध्ये उपलब्ध आहे!](../../../../2-Regression/3-Linear/solution/R/lesson_3.html) ### परिचय -आतापर्यंत तुम्ही कद्दूच्या किंमतींच्या डेटासेटवर आधारित नमुना डेटासह रिग्रेशन म्हणजे काय हे शोधले आहे, जे आपण या धड्यादरम्यान वापरणार आहोत. तुम्ही ते Matplotlib वापरून व्हिज्युअलाइझ देखील केले आहे. +तुम्ही आतापर्यंत रिग्रेशन म्हणजे काय हे कद्दू किमतींच्या डेटासेटवरून पाहिले आहे ज्याचा उपयोग संपूर्ण धड्यात होणार आहे. तुम्ही ते मॅटप्लॉटलिब वापरून दृष्यरूपात देखील पाहिले आहे. -आता तुम्ही मशीन लर्निंगसाठी रिग्रेशनमध्ये अधिक खोलवर जाण्यास तयार आहात. व्हिज्युअलायझेशन डेटाचा अर्थ लावण्यास मदत करते, परंतु मशीन लर्निंगची खरी ताकद _मॉडेल प्रशिक्षण_ यामध्ये आहे. मॉडेल ऐतिहासिक डेटावर प्रशिक्षण दिले जाते जेणेकरून डेटाच्या परस्परसंबंधांना स्वयंचलितपणे कॅप्चर करता येईल आणि नवीन डेटासाठी परिणामांची भविष्यवाणी करता येईल, जे मॉडेलने यापूर्वी पाहिलेले नाही. +आता तुम्ही ML साठी रिग्रेशनमध्ये खोलवर जाण्यास तयार आहात. चित्ररूपण तुम्हाला डेटाचे अर्थ लावण्यास मदत करते, परंतु मशीन लर्निंगची खरी सामर्थ्य म्हणजे _मॉडेल प्रशिक्षित करणे_. मॉडेल्स ऐतिहासिक डेटावर प्रशिक्षित केले जातात जेणेकरून डेटा संबंधितता आपोआप पकडता येते, आणि ते नवीन डेटासाठी पूर्वनिर्धारित परिणाम भाकित करू शकतात, ज्याचा मॉडेलने परवानगी घेतलेली माहिती नाही. -या धड्यात, तुम्ही रिग्रेशनचे दोन प्रकार शिकाल: _मूलभूत रेखीय रिग्रेशन_ आणि _बहुपद रिग्रेशन_, तसेच या तंत्रांच्या पाठीमागील काही गणित. ही मॉडेल्स आपल्याला विविध इनपुट डेटावर आधारित कद्दूच्या किंमतींची भविष्यवाणी करण्यास अनुमती देतील. +या धड्यात, तुम्ही दोन प्रकारच्या रिग्रेशनबद्दल अधिक जाणून घेणार आहात: _मूलभूत रेखीय रिग्रेशन_ आणि _बहुपद रिग्रेशन_, तसेच या तंत्रज्ञानामागील काही गणित. हे मॉडेल्स आम्हाला विविध इनपुट डेटानुसार कद्दूच्या किंमती भाकित करण्याची परवानगी देतील. -[![मशीन लर्निंगसाठी नवशिक्यांसाठी - रेखीय रिग्रेशन समजून घेणे](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "मशीन लर्निंगसाठी नवशिक्यांसाठी - रेखीय रिग्रेशन समजून घेणे") +[![ML for beginners - Understanding Linear Regression](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "ML for beginners - Understanding Linear Regression") -> 🎥 वरील प्रतिमेवर क्लिक करा रेखीय रिग्रेशनचा संक्षिप्त व्हिडिओ आढावा पाहण्यासाठी. +> 🎥 वरील चित्रावर क्लिक करा रेखीय रिग्रेशनच्या थोडक्यात व्हिडिओसाठी. -> या अभ्यासक्रमात, आम्ही गणिताचे किमान ज्ञान गृहीत धरतो आणि इतर क्षेत्रांमधून येणाऱ्या विद्यार्थ्यांसाठी ते सुलभ करण्याचा प्रयत्न करतो. त्यामुळे नोट्स, 🧮 गणना, आकृत्या आणि समज वाढवण्यासाठी इतर शिकण्याची साधने शोधा. +> या अभ्यासक्रमादरम्यान, आम्ही गणिताची कमीतकमी माहिती धरतो आणि इतर क्षेत्रांतील विद्यार्थ्यांसाठी हा विषय सुलभ करण्याचा प्रयत्न करतो, त्यामुळे समज वाढविण्यासाठी टीपा, 🧮 गणितीय कॉलआउट्स, आकृत्या आणि इतर अध्ययन साधने पाहा. -### पूर्वअट +### पूर्वतयारी -आतापर्यंत तुम्ही कद्दूच्या डेटाच्या रचनेशी परिचित असले पाहिजे, ज्याचा आपण अभ्यास करत आहोत. हे डेटासेट या धड्याच्या _notebook.ipynb_ फाईलमध्ये पूर्व-लोड केलेले आणि पूर्व-स्वच्छ केलेले आहे. फाईलमध्ये, कद्दूची किंमत नवीन डेटा फ्रेममध्ये प्रति बशेल दर्शविली जाते. Visual Studio Code मध्ये नोटबुक चालवू शकता याची खात्री करा. +आता तुम्हाला कद्दू डेटाच्या रचनेची ओळख झाली पाहिजे ज्याचे आपण अभ्यास करीत आहोत. ती या धड्याच्या _notebook.ipynb_ फाइलमध्ये आधीच लोड केलेली आणि स्वच्छ केलेली आहे. त्या फाईलमध्ये कद्दूची किंमत बसलावर एक नवीन डेटाफ्रेममध्ये दाखवली गेली आहे. ही नोटबुक विज्युअल स्टुडिओ कोडमध्ये कर्नल्समध्ये चालवता यावी याची खात्री करा. ### तयारी -तुम्ही हे डेटा लोड करत आहात याची आठवण करून द्या जेणेकरून त्यावर प्रश्न विचारता येतील. +स्मरणपत्र म्हणून, तुम्ही हा डेटा हे प्रश्न विचारण्यासाठी लोड करत आहात. -- कधी कद्दू खरेदी करणे सर्वात चांगले आहे? -- मिनिएचर कद्दूंच्या एका केसची किंमत किती अपेक्षित आहे? -- मला ते अर्ध्या बशेलच्या टोपलीत खरेदी करावे का किंवा 1 1/9 बशेल बॉक्समध्ये? +- कधी कद्दू विकत घेण्याची उत्तम वेळ आहे? +- एका केज लहान कद्दूचा कसा अंदाजित किंमत येईल? +- मला हाफ-बुशेल बास्केट्समध्ये खरेदी करायला हवे की 1 1/9 बुशेल बॉक्समध्ये? +चला या डेटामध्ये अधिक खोलवर जाऊया. -चला या डेटामध्ये अधिक खोदून पाहूया. +मागच्या धड्यात तुम्ही पँडास डेटा फ्रेम तयार केला आणि मूळ डेटासेटचा एक भाग भरा, किंमती बुशेल प्रमाणे प्रमाणित केल्या. पण त्यामुळे तुम्हाला अंदाजे 400 डेटापॉईंट्स, केवळ शरद ऋतू महिन्यांसाठी मिळाले. -मागील धड्यात, तुम्ही Pandas डेटा फ्रेम तयार केली आणि ती मूळ डेटासेटच्या भागाने भरली, किंमती बशेलने प्रमाणित केल्या. असे करून, तुम्हाला सुमारे 400 डेटा पॉइंट्स आणि फक्त शरद ऋतूतील महिन्यांसाठी डेटा गोळा करता आला. - -या धड्याच्या सोबतच्या नोटबुकमध्ये पूर्व-लोड केलेल्या डेटावर एक नजर टाका. डेटा पूर्व-लोड केलेला आहे आणि महिन्याच्या डेटाचे प्रारंभिक स्कॅटरप्लॉट तयार केले आहे. कदाचित आपण डेटा अधिक स्वच्छ करून त्याच्या स्वरूपाबद्दल अधिक तपशील मिळवू शकतो. +या धड्याच्या संबंधित नोटबुकमध्ये आधीच लोड केलेला डेटा पहा. डेटा आधीच लोड केलेला आहे आणि सुरुवातीचा स्कॅटरप्लॉट महिन्यांचे डेटा दाखवतो. कदाचित आपण डेटाची स्वच्छता करून अधिक सखोल माहिती मिळवू शकतो. ## रेखीय रिग्रेशन रेषा -धडा 1 मध्ये तुम्ही शिकलात की, रेखीय रिग्रेशनचा उद्देश म्हणजे एक रेषा प्लॉट करणे: +धडा 1 मध्ये आपण शिकल्याप्रमाणे, रेखीय रिग्रेशनचा उद्देश असा आहे की: -- **चलांचे परस्परसंबंध दाखवा**. चलांमधील परस्परसंबंध दाखवा -- **भविष्यवाणी करा**. नवीन डेटा पॉइंट त्या रेषेच्या संदर्भात कुठे असेल याची अचूक भविष्यवाणी करा. +- **चलांचे संबंध दाखवा**. चलांमधील संबंध दाखवा. +- **भाकित करा**. या रेषेच्या अनुरूप नवीन डेटापॉईंट कुठे येईल ते अचूक भाकित करा. -**लीस्ट-स्क्वेअर्स रिग्रेशन** सहसा या प्रकारची रेषा काढण्यासाठी वापरली जाते. 'लीस्ट-स्क्वेअर्स' या संज्ञेचा अर्थ असा आहे की रिग्रेशन रेषेभोवती असलेल्या सर्व डेटा पॉइंट्सचे वर्ग केले जातात आणि नंतर त्यांची बेरीज केली जाते. आदर्शतः, ती अंतिम बेरीज शक्य तितकी लहान असावी, कारण आपल्याला कमी चुका हव्या आहेत, किंवा `लीस्ट-स्क्वेअर्स`. +**लिस्ट-स्क्वेअर रिग्रेशन** मध्ये अशा प्रकारची रेषा काढणे सामान्य आहे. "लिस्ट-स्क्वेअर" म्हणजे आपल्या मॉडेलचा एकूण त्रुटी कमी करण्याचा प्रक्रियेला म्हणतात. प्रत्येक datapoint साठी आपण त्याच्या प्रत्यक्ष बिंदू आणि रिग्रेशन रेषा यामधील उभ्या अंतराचा (called residuals) मोजमाप करतो. -हे असे करतो कारण आम्हाला अशी रेषा मॉडेल करायची आहे ज्यामध्ये आपल्या सर्व डेटा पॉइंट्सपासून किमान एकत्रित अंतर आहे. तसेच, आम्ही अटींचा वर्ग करतो कारण आम्हाला त्याच्या दिशेऐवजी त्याच्या परिमाणाची काळजी आहे. +या अंतरांचे वर्ग काढण्याची दोन मुख्य कारणे आहेत: -> **🧮 गणित दाखवा** -> -> ही रेषा, ज्याला _सर्वोत्तम तंदुरुस्तीची रेषा_ म्हणतात, [एका समीकरणाने](https://en.wikipedia.org/wiki/Simple_linear_regression) व्यक्त केली जाऊ शकते: -> +1. **परिमाणावर भर, दिशा नोंदपण ठेवण्यास नकार:** -5 या त्रुटीस +5 सारखेच मानायचे आहे. वर्ग काढल्याने सर्व मूल्ये धनात्मक होतात. + +2. **आउटलायर्सना जबरदस्त गणना:** वर्गाने मोठ्या त्रुटींना अधिक वजन दिले जाते, जेणेकरून रेषा दूरच्या बिंदूंच्या जवळ राहते. + +नंतर आपण सर्व वर्गबद्ध मूल्ये जमा करतो. आपला उद्देश असा रेषा शोधणे आहे जिथे ही अंतिम बेरीज कमी होईल (सर्वांत लहान मूल्य)—त्यामुळे हे नाव "लिस्ट-स्क्वेअर" आहे. + +> **🧮 मला गणित दाखवा** +> +> या रेषेला _हे सबसे योग्य रेषा_ म्हणतात, जे [एका समीकरणाने](https://en.wikipedia.org/wiki/Simple_linear_regression) दर्शविले जाते: +> > ``` > Y = a + bX > ``` > -> `X` हा 'स्पष्टीकरणात्मक चल' आहे. `Y` हा 'अवलंबित चल' आहे. रेषेचा उतार `b` आहे आणि `a` हा वाय-अवरोध आहे, जो `X = 0` असताना `Y` च्या मूल्याचा संदर्भ घेतो. +> `X` हा 'स्पष्टीकरणात्मक चल' आहे. `Y` हा 'आश्रित चल' आहे. रेषेचा उतार `b` आहे आणि `a` हा y-अवरोधक आहे, जो `X = 0` असताना `Y` ची किंमत दर्शवितो. > -> ![उतार कसा काढायचा](../../../../2-Regression/3-Linear/images/slope.png) +>![calculate the slope](../../../../translated_images/mr/slope.f3c9d5910ddbfcf9.webp) > -> प्रथम, उतार `b` काढा. माहितीग्राफिक [जेन लूपर](https://twitter.com/jenlooper) यांच्याकडून. +> प्रथम, उतार `b` काढा. इन्फोग्राफिक द्वारे [जेन लूपर](https://twitter.com/jenlooper) > -> दुसऱ्या शब्दांत, आणि आपल्या कद्दू डेटाच्या मूळ प्रश्नाचा संदर्भ घेत: "महिन्यानुसार प्रति बशेल कद्दूची किंमत भाकीत करा", `X` किंमतीचा संदर्भ घेईल आणि `Y` विक्रीच्या महिन्याचा संदर्भ घेईल. +> दुसऱ्या शब्दांत, आपल्या कद्दू डेटाच्या मूळ प्रश्नासंबंधात: "महिन्यानुसार कद्दूच्या किंमतीची भाकीत करा", `X` ची किंमत असेल आणि `Y` विक्रीचा महिना असेल. > -> ![समीकरण पूर्ण करा](../../../../2-Regression/3-Linear/images/calculation.png) +>![complete the equation](../../../../translated_images/mr/calculation.a209813050a1ddb1.webp) > -> `Y` चे मूल्य काढा. जर तुम्ही सुमारे $4 देत असाल, तर तो एप्रिल असणार! माहितीग्राफिक [जेन लूपर](https://twitter.com/jenlooper) यांच्याकडून. +> `Y` ची किंमत काढा. जर तुम्ही सुमारे $4 देत असाल, तर नक्की एप्रिल असावा! इन्फोग्राफिक द्वारे [जेन लूपर](https://twitter.com/jenlooper) > -> रेषेचा उतार काढण्यासाठी गणित अवरोधावर अवलंबून असते, किंवा `X = 0` असताना `Y` कुठे आहे. +> गणिताची रेषा काढण्यासाठी उतार दर्शविला पाहिजे, जो अवरोधकावर अवलंबून असतो, किंवा `X = 0` असताना `Y` कोठे आहे हे दर्शवितो. > -> या मूल्यांच्या गणनेची पद्धत [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) वेबसाइटवर पाहू शकता. तसेच [हा लीस्ट-स्क्वेअर्स कॅल्क्युलेटर](https://www.mathsisfun.com/data/least-squares-calculator.html) भेट द्या आणि कसे आकडे रेषेवर परिणाम करतात ते पाहा. +> तुम्ही [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) वेबसाइटवर या गणनांची पद्धत पाहू शकता. तसेच, [हा लिस्ट-स्क्वेअर कॅल्क्युलेटर](https://www.mathsisfun.com/data/least-squares-calculator.html) भेट देऊन संख्या कशी रेषेवर परिणाम करतात ते बघा. ## सहसंबंध -समजून घेण्यासारखी आणखी एक संज्ञा म्हणजे दिलेल्या X आणि Y चलांमधील **सहसंबंध गुणांक**. स्कॅटरप्लॉट वापरून तुम्ही हा गुणांक पटकन व्हिज्युअलाइझ करू शकता. जर प्लॉटमधील डेटा पॉइंट्स एका नीट रेषेत विखुरलेले असतील तर त्यात उच्च सहसंबंध असतो, परंतु जर डेटा पॉइंट्स X आणि Y दरम्यान सर्वत्र विखुरलेले असतील तर त्यात कमी सहसंबंध असतो. +अजून एक शब्द समजून घेणे आवश्यक आहे: दिलेल्या `X` आणि `Y` चलांमधील **सहसंबंध गुणांक**. स्कॅटरप्लॉट वापरून तुम्ही जलदपणे हा गुणांक पाहू शकता. जर डेटा बिंदू एका नीटसर रेषेत विखुरलेले असतील तर उच्च सहसंबंध असतो, परंतु जर डेटा बिंदू सर्वत्र विखुरलेले असतील तर सहसंबंध कमी असतो. -एक चांगले रेखीय रिग्रेशन मॉडेल असेल ज्यामध्ये लीस्ट-स्क्वेअर्स रिग्रेशन पद्धतीसह रिग्रेशन रेषेचा वापर करून उच्च (1 च्या जवळ) सहसंबंध गुणांक असेल. +योग्य रिग्रेशन मॉडेल असेल ज्याचा सहसंबंध गुणांक (0 पेक्षा जवळजवळ 1) लिस्ट-स्क्वेअर रिग्रेशन पद्धतीने रेषा सह असतो. -✅ या धड्याच्या सोबतच्या नोटबुकमध्ये स्कॅटरप्लॉट चालवा आणि महिना ते किंमत डेटा पाहा. कद्दू विक्रीसाठी महिना ते किंमत डेटा उच्च किंवा कमी सहसंबंध दर्शवतो का? जर तुम्ही `महिना` ऐवजी अधिक सूक्ष्म मोजमाप वापरले (उदा. *वर्षाचा दिवस* म्हणजेच वर्षाच्या सुरुवातीपासूनचे दिवस) तर ते बदलते का? +✅ या धड्याशी संबंधित नोटबुक चालवा आणि महिन्यांवरून किमतींचा स्कॅटरप्लॉट पहा. कद्दू विक्रीसाठी महिना व किमतींचा संबंध तुमच्या दृश्य समजुतीनुसार उच्च किंवा कमी सहसंबंध दर्शवितो का? जर तुम्ही `Month` ऐवजी *वर्षातील दिवस* (उदा. वर्षाच्या सुरुवातीपासून किती दिवस झाले) वापरला तर सहसंबंध बदलतो का? -वरील कोडमध्ये, आम्ही गृहीत धरतो की आम्ही डेटा स्वच्छ केला आहे आणि `new_pumpkins` नावाचा डेटा फ्रेम प्राप्त केला आहे, जो खालीलप्रमाणे आहे: +खालील कोडमध्ये, समजा आपण डेटा स्वच्छ केला आहे, आणणि `new_pumpkins` नावाचा डेटा फ्रेम मिळवला आहे, जो पुढीलप्रमाणे असेल: -ID | महिना | वर्षाचा दिवस | प्रकार | शहर | पॅकेज | कमी किंमत | जास्त किंमत | किंमत ----|-------|-----------|---------|------|---------|-----------|------------|------- -70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 -71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 -72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 -73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 17.0 | 17.0 | 15.454545 -74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 +ID | Month | DayOfYear | Variety | City | Package | Low Price | High Price | Price +---|-------|-----------|---------|------|---------|-----------|------------|------- +70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 +71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 +72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 18.0 | 18.0 | 16.363636 +73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 17.0 | 17.0 | 15.454545 +74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 bushel cartons | 15.0 | 15.0 | 13.636364 -> डेटा स्वच्छ करण्यासाठी कोड [`notebook.ipynb`](../../../../2-Regression/3-Linear/notebook.ipynb) मध्ये उपलब्ध आहे. आम्ही मागील धडातील समान स्वच्छता पावले घेतली आहेत आणि खालील अभिव्यक्ती वापरून `DayOfYear` स्तंभाची गणना केली आहे: +> डेटा स्वच्छ करण्याचा कोड `notebook.ipynb` मध्ये उपलब्ध आहे. आपण मागील धड्यासारखेच स्वच्छ करण्याचे चरण पार पाडले आहेत आणि खालील अभिव्यक्तीने `DayOfYear` स्तंभ काढला आहे: ```python day_of_year = pd.to_datetime(pumpkins['Date']).apply(lambda dt: (dt-datetime(dt.year,1,1)).days) ``` -आता तुम्हाला रेखीय रिग्रेशनमागील गणित समजले आहे, चला रिग्रेशन मॉडेल तयार करूया आणि पाहूया की कद्दूच्या पॅकेजसाठी सर्वोत्तम किंमतींची भविष्यवाणी करता येते का. एखाद्या सुट्टीतील कद्दूच्या पॅचसाठी कद्दू खरेदी करणाऱ्या व्यक्तीला कदाचित कद्दूच्या पॅकेजेसची खरेदी ऑप्टिमाइझ करण्यासाठी ही माहिती हवी असेल. +आता तुम्हाला रेखीय रिग्रेशनमागील गणित समजले आहे, तर आपण एक रिग्रेशन मॉडेल तयार करूया आणि बघूया की कोणता कद्दू पॅकेज सर्वोत्तम किम्मती असेल याचा अंदाज लावता येतो का. कोणीतरी काही सणासाठी कद्दू विकत घेणार असेल तर हे माहिती त्यांच्या खरेदीचे ऑप्टिमायझेशन करण्यास मदत करेल. -## सहसंबंध शोधणे +## सहसंबंध शोधत आहोत -[![मशीन लर्निंगसाठी नवशिक्यांसाठी - सहसंबंध शोधणे: रेखीय रिग्रेशनची गुरुकिल्ली](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "मशीन लर्निंगसाठी नवशिक्यांसाठी - सहसंबंध शोधणे: रेखीय रिग्रेशनची गुरुकिल्ली") +[![ML for beginners - Looking for Correlation: The Key to Linear Regression](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "ML for beginners - Looking for Correlation: The Key to Linear Regression") -> 🎥 वरील प्रतिमेवर क्लिक करा सहसंबंधाचा संक्षिप्त व्हिडिओ आढावा पाहण्यासाठी. +> 🎥 वरील चित्रावर क्लिक करा सहसंबंधाचा थोडक्यात व्हिडिओसाठी. -मागील धडामध्ये तुम्ही कदाचित पाहिले असेल की विविध महिन्यांसाठी सरासरी किंमत अशी दिसते: +मागील धड्यात तुम्ही कदाचित पाहिले असेल की वेगवेगळ्या महिन्यांमध्ये सरासरी किंमती अशा आहेत: -महिन्यानुसार सरासरी किंमत +Average price by month -हे सूचित करते की काही सहसंबंध असावा, आणि आपण `महिना` आणि `किंमत` यांच्यातील किंवा `वर्षाचा दिवस` आणि `किंमत` यांच्यातील संबंध भाकीत करण्यासाठी रेखीय रिग्रेशन मॉडेल प्रशिक्षण देण्याचा प्रयत्न करू शकतो. खालील स्कॅटरप्लॉट नातेसंबंध दर्शवतो: +हे सूचित करते की किमान काही सहसंबंध असावा, आणि आपण रेखीय रिग्रेशनच्या मदतीने `Month` व `Price` किंवा `DayOfYear` व `Price` मध्ये संबंध भाकित करण्याचा प्रयत्न करू शकतो. खालील स्कॅटरप्लॉट `DayOfYear` व `Price` मधील संबंध दाखवते: -किंमत वि. वर्षाचा दिवस याचा स्कॅटरप्लॉट +Scatter plot of Price vs. Day of Year -चला `corr` फंक्शन वापरून सहसंबंध तपासूया: +`corr` फंक्शन वापरून बघूया: ```python print(new_pumpkins['Month'].corr(new_pumpkins['Price'])) print(new_pumpkins['DayOfYear'].corr(new_pumpkins['Price'])) ``` -असे दिसते की सहसंबंध खूपच कमी आहे, `महिना` साठी -0.15 आणि `वर्षाचा दिवस` साठी -0.17, परंतु आणखी एक महत्त्वाचा संबंध असू शकतो. असे दिसते की विविध कद्दू प्रकारांशी संबंधित किंमतींचे वेगवेगळे क्लस्टर आहेत. ही गृहीतके पुष्टी करण्यासाठी, चला प्रत्येक कद्दू प्रकार वेगळ्या रंगात प्लॉट करूया. `scatter` प्लॉटिंग फंक्शनला `ax` पॅरामीटर पास करून आपण सर्व पॉइंट्स एकाच ग्राफवर प्लॉट करू शकतो: +सहसंबंध 0 पेक्षा कमी आणि फार लहान वाटत आहे, `Month` करीता -0.15 आणि `DayOfMonth` करीता -0.17, पण एक महत्त्वाचा संबंध असू शकतो. वेगवेगळ्या कद्दू प्रकारानुसार किंमतींचे वेगळे क्लस्टर दिसत आहेत. या संकल्पनेची पुष्टी करण्यासाठी, प्रत्येक कद्दू वर्ग वेगळ्या रंगात प्लॉट करूया. `scatter` प्लॉटिंग फंक्शनला `ax` पॅरामीटर पास करून आपण सर्व बिंदू एका ग्राफवर दाखवू शकतो: ```python ax=None @@ -131,42 +140,42 @@ for i,var in enumerate(new_pumpkins['Variety'].unique()): ax = df.plot.scatter('DayOfYear','Price',ax=ax,c=colors[i],label=var) ``` -किंमत वि. वर्षाचा दिवस याचा स्कॅटरप्लॉट +Scatter plot of Price vs. Day of Year -आपल्या तपासणीने सूचित केले की प्रकाराचा एकूण किंमतीवर विक्रीच्या तारखेपेक्षा जास्त परिणाम होतो. आपण हे बार ग्राफसह पाहू शकतो: +आपल्या तपासणीत असे दिसते की विविध प्रकार किम्मतीवर विक्रीच्या तारखेच्या तुलनेत अधिक प्रभाव टाकतात. हे खालील बार ग्राफवरून दिसू शकते: ```python new_pumpkins.groupby('Variety')['Price'].mean().plot(kind='bar') ``` -प्रकारानुसार किंमतीचा बार ग्राफ +Bar graph of price vs variety -आता आपण फक्त एका कद्दू प्रकारावर लक्ष केंद्रित करूया, 'पाई प्रकार', आणि पाहूया की तारखेचा किंमतीवर काय परिणाम होतो: +सध्या फक्त एका कद्दू प्रकारावर, 'पाय टाईप', लक्ष केंद्रित करूया, आणि पाहूया की विक्री तारखेचा किम्मतीवर काय परिणाम आहे: ```python pie_pumpkins = new_pumpkins[new_pumpkins['Variety']=='PIE TYPE'] pie_pumpkins.plot.scatter('DayOfYear','Price') ``` -किंमत वि. वर्षाचा दिवस याचा स्कॅटरप्लॉट +Scatter plot of Price vs. Day of Year -जर आपण आता `corr` फंक्शन वापरून `किंमत` आणि `वर्षाचा दिवस` यांच्यातील सहसंबंधाची गणना केली, तर आपल्याला सुमारे `-0.27` मिळेल - याचा अर्थ असा की भाकीत मॉडेल प्रशिक्षण देणे योग्य आहे. +जर आपण `Price` आणि `DayOfYear` यांच्यात `corr` फंक्शनने सहसंबंध काढला तर आपल्याला सुमारे `-0.27` मिळेल - म्हणजे एक भाकीत करणारा मॉडेल तयार करणे योग्य आहे. -> रेखीय रिग्रेशन मॉडेल प्रशिक्षण देण्यापूर्वी, आपला डेटा स्वच्छ असल्याची खात्री करणे महत्त्वाचे आहे. रेखीय रिग्रेशन रिक्त मूल्यांसह चांगले कार्य करत नाही, त्यामुळे सर्व रिक्त पेशी काढून टाकणे योग्य ठरेल: +> रेखीय रिग्रेशन मॉडेल प्रशिक्षणापूर्वी आपला डेटा स्वच्छ असणे महत्त्वाचे आहे. रेखीय रिग्रेशनमध्ये रिकाम्या मूल्यांबरोबर चांगले काम होत नाही, त्यामुळे रिकाम्या सेल्स काढून टाकणे योग्य आहे: ```python pie_pumpkins.dropna(inplace=True) pie_pumpkins.info() ``` -आणखी एक दृष्टिकोन म्हणजे त्या रिक्त मूल्यांना संबंधित स्तंभातील सरासरी मूल्यांनी भरून काढणे. +दुसरी पद्धत म्हणजे त्या रिकाम्या सेल्सना संबंधित कॉलममधल्या सरासरी मूल्याने भरून काढणे. -## साधे रेखीय रिग्रेशन +## सोपी रेखीय रिग्रेशन -[![मशीन लर्निंगसाठी नवशिक्यांसाठी - Scikit-learn वापरून रेखीय आणि बहुपद रिग्रेशन](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "मशीन लर्निंगसाठी नवशिक्यांसाठी - Scikit-learn वापरून रेखीय आणि बहुपद रिग्रेशन") +[![ML for beginners - Linear and Polynomial Regression using Scikit-learn](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "ML for beginners - Linear and Polynomial Regression using Scikit-learn") -> 🎥 वरील प्रतिमेवर क्लिक करा रेखीय आणि बहुपद रिग्रेशनचा संक्षिप्त व्हिडिओ आढावा पाहण्यासाठी. +> 🎥 वरील चित्रावर क्लिक करा रेखीय आणि बहुपद रिग्रेशनचा थोडक्यात व्हिडिओसाठी. -आमच्या रेखीय रिग्रेशन मॉडेलला प्रशिक्षण देण्यासाठी, आम्ही **Scikit-learn** लायब्ररी वापरणार आहोत. +आपल्या रेखीय रिग्रेशन मॉडेलचे प्रशिक्षण करण्यासाठी आम्ही **Scikit-learn** लायब्ररी वापरणार आहोत. ```python from sklearn.linear_model import LinearRegression @@ -174,59 +183,69 @@ from sklearn.metrics import mean_squared_error from sklearn.model_selection import train_test_split ``` -आम्ही इनपुट मूल्ये (वैशिष्ट्ये) आणि अपेक्षित आउटपुट (लेबल) वेगळ्या numpy ऍरेमध्ये विभाजित करून सुरुवात करतो: +आम्ही इनपुट मूल्ये (वैशिष्ट्ये) आणि अपेक्षित आउटपुट (लेबल) वेगळ्या numpy array मध्ये विभागतो: ```python X = pie_pumpkins['DayOfYear'].to_numpy().reshape(-1,1) y = pie_pumpkins['Price'] ``` -> लक्षात घ्या की रेखीय रिग्रेशन पॅकेजने ते योग्यरित्या समजण्यासाठी आम्हाला इनपुट डेटावर `reshape` करावे लागले. रेखीय रिग्रेशनला 2D-ऍरे इनपुट म्हणून अपेक्षित आहे, जिथे ऍरेमधील प्रत्येक पंक्ती इनपुट वैशिष्ट्यांच्या व्हेक्टरशी संबंधित आहे. आपल्या प्रकरणात, कारण आपल्याकडे फक्त एक इनपुट आहे - आपल्याला N×1 आकाराचे ऍरे आवश्यक आहे, जिथे N डेटासेटचा आकार आहे. +> लक्षात घ्या की इनपुट डेटावर आम्हाला `reshape` करावे लागले कारण Linear Regression पॅकेजला ते योग्यरित्या समजावे लागते. Linear Regression ला 2D-array इनपुट म्हणून अपेक्षा असते, जिथे प्रत्येक रांगेत इनपुट वैशिष्ट्यांचा वेक्टर असतो. आमच्याकडे फक्त एक इनपुट असल्याने, N×1 आकाराचा array आवश्यक आहे, जिथे N हा डेटासेटचा आकार आहे. -यानंतर, आम्हाला डेटा ट्रेन आणि टेस्ट डेटासेटमध्ये विभाजित करणे आवश्यक आहे, जेणेकरून प्रशिक्षणानंतर आम्ही आमच्या मॉडेलची पडताळणी करू शकू: +नंतर, आम्हाला डेटा प्रशिक्षण आणि चाचणी संचात विभागावा लागतो, जेणेकरून प्रशिक्षणानंतर आमचे मॉडेल सत्यापित करता येईल: ```python X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ``` -शेवटी, वास्तविक रेखीय रिग्रेशन मॉडेल प्रशिक्षण देणे फक्त दोन ओळींचे काम आहे. आम्ही `LinearRegression` ऑब्जेक्ट परिभाषित करतो आणि `fit` पद्धतीचा वापर करून आमच्या डेटावर फिट करतो: +शेवटी, Lineal Regression मॉडेलचे प्रशिक्षण फक्त दोन ओळींमध्ये होते. आम्ही `LinearRegression` ऑब्जेक्ट तयार करतो, आणि `fit` पद्धतीने आमच्या डेटावर ते बसवतो: ```python lin_reg = LinearRegression() lin_reg.fit(X_train,y_train) ``` -`LinearRegression` ऑब्जेक्टमध्ये `fit` केल्यानंतर सर्व रिग्रेशन गुणांक असतात, जे `.coef_` प्रॉपर्टी वापरून प्रवेश करता येतात. आपल्या प्रकरणात, फक्त एक गुणांक आहे, जो सुमारे `-0.017` असावा. याचा अर्थ किंमती कालांतराने किंचित कमी होत आहेत, परंतु फार नाही, दररोज सुमारे 2 सेंट. आम्ही `lin_reg.inter -आमची चूक सुमारे 2 मुद्द्यांवर आहे, जी ~17% आहे. फारशी चांगली नाही. मॉडेल गुणवत्तेचा आणखी एक निर्देशक म्हणजे **निर्धारण गुणांक**, जो खालीलप्रमाणे मिळवता येतो: +`LinearRegression` ऑब्जेक्ट `fit` केल्यानंतर सर्व रेग्रेशनचे गुणांक समाविष्ट करतो, जे `.coef_` प्रॉपर्टीने प्रवेश केले जाऊ शकतात. आपल्या बाबतीत, फक्त एकच गुणांक आहे, जो सुमारे `-0.017` असावा. याचा अर्थ किंमती काळाप्रमाणे थोड्या प्रमाणात कमी होतात, पण फार नाही, दररोज सुमारे 2 सेंट. आपण `lin_reg.intercept_` वापरून रेग्रेशनचा Y-अक्षाशी छेदन बिंदू देखील प्राप्त करू शकतो - आपल्या बाबतीत हा सुमारे `21` असेल, जो वर्षाच्या सुरुवातीच्या किमतीचा दर्शवितो. + +आपल्या मॉडेलची अचूकता पाहण्यासाठी, आपण चाचणी डेटासेटवरील किंमतींची भाकित करू शकतो, आणि नंतर आपल्या भाकिते अपेक्षित किमतींपेक्षा किती जवळ आहेत हे मोजू शकतो. हे सर्व अपेक्षित आणि भाकित मूल्ये यांच्यातील चौकटांत फरकांचे सरासरी (MSE) मेट्रिक वापरून करू शकतो. + +```python +pred = lin_reg.predict(X_test) + +mse = np.sqrt(mean_squared_error(y_test,pred)) +print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') +``` + +आपला त्रुटी सुमारे 2 पॉइंट्स असून सुमारे ~17% आहे. फार चांगले नाही. मॉडेल क्वालिटीचा आणखी एक निर्देशांक म्हणजे **निर्धारण गुणांक**, जो अशी प्राप्त केला जाऊ शकतो: ```python score = lin_reg.score(X_train,y_train) print('Model determination: ', score) ``` -जर मूल्य 0 असेल, तर याचा अर्थ मॉडेल इनपुट डेटा विचारात घेत नाही आणि *सर्वात वाईट रेषीय भविष्यवक्ता* म्हणून कार्य करते, जो फक्त निकालाचा सरासरी मूल्य आहे. मूल्य 1 असल्यास, आपण सर्व अपेक्षित आउटपुट पूर्णपणे अंदाज करू शकतो. आमच्या बाबतीत, निर्धारण गुणांक सुमारे 0.06 आहे, जो खूपच कमी आहे. + जर मूल्य 0 असेल, तर त्याचा अर्थ आहे की मॉडेल इनपुट डेटाला लक्षात घेत नाही आणि *सर्वात वाईट रेषीय भाकितकार* म्हणून काम करते, जे फक्त परिणामाचे सरासरी मूल्य आहे. 1 ची किंमत म्हणजे आपण सर्व अपेक्षित आउटपुट्स परिपूर्णपणे भाकित करू शकतो. आपल्या बाबतीत, हा गुणांक सुमारे 0.06 आहे, जे खूप कमी आहे. -आम्ही चाचणी डेटा आणि रेषीय रिग्रेशन लाइन एकत्र प्लॉट करू शकतो, ज्यामुळे आमच्या बाबतीत रिग्रेशन कसे कार्य करते हे चांगल्या प्रकारे दिसेल: +आपण चाचणी डेटा आणि रेग्रेशन रेषा एकत्र प्लॉट करू शकतो ज्यामुळे रेग्रेशन आपल्या बाबतीत कसे कार्य करते हे चांगल्या प्रकारे दिसते: ```python plt.scatter(X_test,y_test) plt.plot(X_test,pred) ``` -रेषीय रिग्रेशन +Linear regression -## बहुपद रिग्रेशन +## बहुपदी रेग्रेशन -रेषीय रिग्रेशनचा आणखी एक प्रकार म्हणजे बहुपद रिग्रेशन. कधी कधी व्हेरिएबल्समध्ये रेषीय संबंध असतो - जसे की भोपळ्याचा आकार मोठा असेल तर किंमत जास्त असेल - परंतु कधी कधी हे संबंध सरळ रेषा किंवा पृष्ठभाग म्हणून प्लॉट करता येत नाहीत. +रेषीय रेग्रेशनचा दुसरा प्रकार आहे बहुपदी रेग्रेशन. कधी कधी व्हेरीएबल्समध्ये रेषीय संबंध असतो - जितका भोपळा खंडफळाने मोठा तितकी किंमत जास्त - पण कधी कधी हे संबंध समतल किंवा सरळ रेषा म्हणून दर्शवू शकत नाहीत. -✅ येथे [काही अधिक उदाहरणे](https://online.stat.psu.edu/stat501/lesson/9/9.8) आहेत ज्यामध्ये बहुपद रिग्रेशनचा उपयोग होऊ शकतो. +✅ येथे [अधिक काही उदाहरणे](https://online.stat.psu.edu/stat501/lesson/9/9.8) आहेत ज्यासाठी बहुपदी रेग्रेशन वापरले जाऊ शकते -Date आणि Price यांच्यातील संबंध पुन्हा एकदा पाहा. हा स्कॅटरप्लॉट सरळ रेषेने विश्लेषित केला जावा असे वाटते का? किंमती बदलू शकत नाहीत का? अशा परिस्थितीत, तुम्ही बहुपद रिग्रेशन वापरून पाहू शकता. +दिनांक आणि किंमत यांच्यातील संबंध पुन्हा एकदा पाहा. हा स्कॅटरप्लॉट आवश्यकतेनुसार नेहमी सरळ रेषेत विश्लेषित व्हायला हवा का? किंमती कधी बदलत नाहीत का? अशा केसमध्ये आपण बहुपदी रेग्रेशन वापरून पाहू शकतो. -✅ बहुपद म्हणजे गणितीय अभिव्यक्ती ज्यामध्ये एक किंवा अधिक व्हेरिएबल्स आणि गुणांक असू शकतात. +✅ बहुपदी गणितीय अभिव्यक्ती आहेत ज्यात एक किंवा अधिक चल आणि गुणांक असू शकतात -बहुपद रिग्रेशन वाकवलेली रेषा तयार करते जी नॉन-रेषीय डेटाशी चांगल्या प्रकारे जुळते. आमच्या बाबतीत, जर आम्ही `DayOfYear` व्हेरिएबलचे वर्ग समाविष्ट केले, तर आम्ही आमचा डेटा एका परबोलिक वक्राने फिट करू शकतो, ज्याचा किमान बिंदू वर्षाच्या विशिष्ट बिंदूवर असेल. +बहुपदी रेग्रेशन वक्र रेषा तयार करते ज्यामुळे नॉन-रेषीय डेटा चांगल्या प्रकारे फिट होतो. आपल्या बाबतीत, जर आपण `DayOfYear` चा वर्गमूल इनपुटमध्ये समाविष्ट केला तर आपला डेटा एक पराबॉलिक वक्राद्वारे फिट करू शकतो, ज्याची किमान किंमत वर्षातील एका विशिष्ट बिंदूवर असेल. -Scikit-learn मध्ये डेटा प्रोसेसिंगच्या विविध टप्प्यांना एकत्र करण्यासाठी एक उपयुक्त [pipeline API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) समाविष्ट आहे. **पाइपलाइन** म्हणजे **अंदाजकांची** साखळी. आमच्या बाबतीत, आम्ही एक पाइपलाइन तयार करू जी प्रथम मॉडेलमध्ये बहुपद वैशिष्ट्ये जोडते आणि नंतर रिग्रेशन प्रशिक्षित करते: +स्किट-लर्नमध्ये डेटा प्रोसेसिंगच्या विविध टप्प्यांना एकत्रित करण्यासाठी उपयुक्त [pipeline API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) आहे. एक **pipeline** म्हणजे **estimators** ची साखळी आहे. आपल्या बाबतीत, आपण असा pipeline तयार करू जे प्रथम polynomial features जोडेल आणि नंतर रेग्रेशन ट्रेन करेल: ```python from sklearn.preprocessing import PolynomialFeatures @@ -237,36 +256,36 @@ pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) ``` -`PolynomialFeatures(2)` वापरण्याचा अर्थ असा आहे की आम्ही इनपुट डेटामधून सर्व दुसऱ्या-डिग्री बहुपद समाविष्ट करू. आमच्या बाबतीत याचा अर्थ फक्त `DayOfYear`2 असेल, परंतु दोन इनपुट व्हेरिएबल्स X आणि Y दिल्यास, हे X2, XY आणि Y2 जोडेल. आम्ही हवे असल्यास उच्च डिग्री बहुपद देखील वापरू शकतो. +`PolynomialFeatures(2)` वापरून म्हणजे इनपुट डेटामधून सर्व दुसऱ्या क्रमांकाचे बहुपदी जोडले जातील. आपल्या बाबतीत याचा अर्थ फक्त `DayOfYear`2 असेल, पण दोन इनपुट व्हेरीएबल्स X आणि Y असल्यास, हे X2, XY आणि Y2 जोडेल. आपण इच्छित असल्यास अधिक उच्च क्रमांकाचे बहुपदी देखील वापरू शकतो. -पाइपलाइन मूळ `LinearRegression` ऑब्जेक्टप्रमाणेच वापरली जाऊ शकते, म्हणजेच आम्ही पाइपलाइन `fit` करू शकतो आणि नंतर `predict` वापरून अंदाज परिणाम मिळवू शकतो. येथे चाचणी डेटा आणि अंदाज वक्र दर्शविणारा ग्राफ आहे: +Pipelines मूळ `LinearRegression` ऑब्जेक्टसारखे वापरू शकतो, म्हणजे आपण pipeline ला `fit` करू शकतो आणि नंतर `predict` वापरून भाकित प्राप्त करू शकतो. खाली ग्राफमध्ये चाचणी डेटा आणि अंदाजे वक्र दाखवला आहे: -बहुपद रिग्रेशन +Polynomial regression -बहुपद रिग्रेशन वापरून, आम्हाला किंचित कमी MSE आणि उच्च निर्धारण मिळू शकते, परंतु फारसे महत्त्वाचे नाही. आम्हाला इतर वैशिष्ट्यांचा विचार करणे आवश्यक आहे! +बहुपदी रेग्रेशन वापरून आपल्याला थोडा कमी MSE आणि अधिक निर्धारण गुणांक मिळू शकतो, पण फारसे नाही. आपल्याला इतर वैशिष्ट्ये देखील विचारात घ्यावी लागतील! -> तुम्ही पाहू शकता की किमान भोपळ्याच्या किंमती हॅलोविनच्या आसपास दिसतात. तुम्ही हे कसे स्पष्ट कराल? +> आपण पाहू शकता की किमान भोपळ्याच्या किंमती हॅलोवीनच्या सुमारास दिसतात. तुम्ही हे कसे समजावून सांगू शकता? -🎃 अभिनंदन, तुम्ही एक मॉडेल तयार केले आहे जे पाई भोपळ्याच्या किंमतींचा अंदाज लावण्यास मदत करू शकते. तुम्ही कदाचित सर्व प्रकारच्या भोपळ्यांसाठी हीच प्रक्रिया पुन्हा करू शकता, परंतु ते कंटाळवाणे होईल. आता आपण आपल्या मॉडेलमध्ये भोपळ्याच्या प्रकाराचा विचार कसा करायचा ते शिकूया! +🎃 अभिनंदन, तुम्ही अशी मॉडेल तयार केली आहे जी पाय भोपळ्याच्या किंमती भाकित करण्यात मदत करू शकते. तुम्ही हेच प्रोसिजर सर्व भोपळ्यांच्या प्रकारांसाठी पुनरावृत्ती करू शकता, पण ते फारच वेळखाऊ होईल. चला आता शिकूया की आपल्या मॉडेलमध्ये भोपळ्याचा प्रकार कसा विचारात घ्यावा! -## श्रेणी वैशिष्ट्ये +## श्रेणीगत वैशिष्ट्ये -आदर्श जगात, आम्हाला एकाच मॉडेलचा वापर करून भोपळ्याच्या विविध प्रकारांसाठी किंमतींचा अंदाज लावता यावा अशी इच्छा आहे. तथापि, `Variety` कॉलम `Month` सारख्या कॉलमपेक्षा थोडा वेगळा आहे, कारण त्यामध्ये नॉन-न्यूमेरिक मूल्ये आहेत. अशा कॉलम्सला **श्रेणी** म्हणतात. +आदर्श जगात, आपल्याला वेगवेगळ्या भोपळा प्रकारांसाठी किंमती सारखे मॉडेल वापरून भाकित करायचे आहे. तथापि, `Variety` स्तंभ `Month` सारख्या स्तंभांपेक्षा वेगळा आहे, कारण त्यात संख्या नसलेली (गैर-सांख्यिक) मूल्ये असतात. अशा स्तंभांना **categorical** म्हणतात. -[![ML for beginners - श्रेणी वैशिष्ट्यांसह रेषीय रिग्रेशन](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "ML for beginners - श्रेणी वैशिष्ट्यांसह रेषीय रिग्रेशन") +[![ML for beginners - Categorical Feature Predictions with Linear Regression](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "ML for beginners - Categorical Feature Predictions with Linear Regression") -> 🎥 वरील प्रतिमेवर क्लिक करा श्रेणी वैशिष्ट्यांचा वापर करण्याचा संक्षिप्त व्हिडिओ पाहण्यासाठी. +> 🎥 वरील प्रतिमा क्लिक करा, जेथे श्रेणीगत वैशिष्ट्य वापरण्याचे संक्षिप्त व्हिडिओ अवलोकन आहे. -येथे तुम्ही पाहू शकता की प्रकारानुसार सरासरी किंमत कशी बदलते: +येथे तुम्ही पाहू शकता की सरासरी किंमत प्रकारावर कशी अवलंबून असते: -प्रकारानुसार सरासरी किंमत +Average price by variety -प्रकाराचा विचार करण्यासाठी, प्रथम त्याला न्यूमेरिक स्वरूपात रूपांतरित करणे आवश्यक आहे, किंवा **एन्कोड** करणे आवश्यक आहे. हे करण्याचे अनेक मार्ग आहेत: +प्रकार विचारात घेण्यासाठी, आपल्याला प्रथम त्याला संख्यात्मक स्वरूपात रूपांतरित करणे आवश्यक आहे, किंवा **encode** करणे आवश्यक आहे. आपण हे करण्याचे काही मार्ग आहेत: -* साधे **न्यूमेरिक एन्कोडिंग** विविध प्रकारांची एक टेबल तयार करेल आणि नंतर प्रकाराचे नाव त्या टेबलमधील निर्देशांकाने बदलले जाईल. हे रेषीय रिग्रेशनसाठी सर्वोत्तम कल्पना नाही, कारण रेषीय रिग्रेशन निर्देशांकाच्या वास्तविक न्यूमेरिक मूल्याचा विचार करते आणि काही गुणांकाने गुणाकार करून निकालात जोडते. आमच्या बाबतीत, निर्देशांक क्रमांक आणि किंमत यांच्यातील संबंध स्पष्टपणे नॉन-रेषीय आहे, जरी आम्ही सुनिश्चित केले की निर्देशांक विशिष्ट क्रमाने आहेत. -* **वन-हॉट एन्कोडिंग** `Variety` कॉलम 4 वेगळ्या कॉलम्सने बदलेल, प्रत्येक प्रकारासाठी एक. प्रत्येक कॉलममध्ये `1` असेल जर संबंधित रांग दिलेल्या प्रकाराची असेल, आणि `0` अन्यथा. याचा अर्थ असा की रेषीय रिग्रेशनमध्ये चार गुणांक असतील, प्रत्येक भोपळ्याच्या प्रकारासाठी एक, त्या विशिष्ट प्रकारासाठी "प्रारंभिक किंमत" (किंवा "अतिरिक्त किंमत") जबाबदार. +* सोप्या **संख्यात्मक एनकोडिंग** मध्ये वेगवेगळ्या प्रकारांची यादी तयार केली जाते आणि नंतर त्या यादीतील क्रमांकाने प्रकाराचे नाव बदलले जाते. रेषीय रेग्रेशनसाठी हे चांगले नाही, कारण रेषीय रेग्रेशन त्या क्रमांकाचे वास्तविक अंकात्मक मूल्य घेते आणि त्याला गुणांशी जमा करते. आपल्या बाबतीत, मूल्य आणि किंमत यांच्यातील संबंध स्पष्टपणे नॉन-रेखीय आहे, जरी सूचकांची विशिष्ट क्रमशः वितरण केली द्या. +* **One-hot एनकोडिंग** मध्ये `Variety` कॉलम ४ वेगळ्या कॉलमने बदलले जाते, प्रत्येक प्रकारासाठी एक कॉलम. प्रत्येक कॉलममध्ये `1` असेल जर संबंधित ओळ दिलेल्या प्रकाराची असेल, नाहीतर `0`. याचा अर्थ रेषीय रेग्रेशनमध्ये पुढील चार गुणांक असतील, प्रत्येक भोपळा प्रकारासाठी, जे त्या प्रकाराच्या "सुरुवातीच्या किंमतीसाठी" जबाबदार आहेत (किंवा "अतिरिक्त किंमत" म्हणावे). -खालील कोड प्रकार वन-हॉट एन्कोड कसा करता येतो हे दाखवतो: +खालील कोडमध्ये आपण variety कसा one-hot encode करू शकतो हे दाखवले आहे: ```python pd.get_dummies(new_pumpkins['Variety']) @@ -283,14 +302,14 @@ pd.get_dummies(new_pumpkins['Variety']) 1741 | 0 | 1 | 0 | 0 1742 | 0 | 1 | 0 | 0 -वन-हॉट एन्कोड केलेला प्रकार इनपुट म्हणून वापरून रेषीय रिग्रेशन प्रशिक्षित करण्यासाठी, आम्हाला फक्त `X` आणि `y` डेटा योग्य प्रकारे प्रारंभ करणे आवश्यक आहे: +वन-हॉट एनकोडेड variety वापरून रेषीय रेग्रेशन ट्रेन करण्यासाठी, आपल्याला फक्त `X` आणि `y` डेटा योग्यरित्या प्रारंभ करावा लागेल: ```python X = pd.get_dummies(new_pumpkins['Variety']) y = new_pumpkins['Price'] ``` -उर्वरित कोड वर वापरलेल्या रेषीय रिग्रेशन प्रशिक्षित करण्यासाठी समान आहे. जर तुम्ही प्रयत्न केला, तर तुम्हाला दिसेल की सरासरी चौरस त्रुटी जवळजवळ समान आहे, परंतु आम्हाला खूप उच्च निर्धारण गुणांक (~77%) मिळतो. अधिक अचूक अंदाज मिळवण्यासाठी, आम्ही अधिक श्रेणी वैशिष्ट्यांचा विचार करू शकतो, तसेच `Month` किंवा `DayOfYear` सारख्या न्यूमेरिक वैशिष्ट्यांचा विचार करू शकतो. एक मोठा वैशिष्ट्यांचा अ‍ॅरे मिळवण्यासाठी, आम्ही `join` वापरू शकतो: +उर्वरित कोड तेच आहे जे आपण वर रेषीय रेग्रेशनसाठी वापरले होते. आपण प्रयत्न केले तर पाहाल की MSE सुमारे तसंच आहे, पण निर्धारण गुणांक खूप जास्त (~77%) मिळतो. अधिक अचूक भाकितांसाठी आपल्याला अधिक श्रेणीगत वैशिष्ट्ये आणि संख्यात्मक वैशिष्ट्ये, जसे की `Month` किंवा `DayOfYear` देखील विचारात घ्यावे लागतील. सर्व वैशिष्ट्यांचा एक मोठा अरे मिळवण्यासाठी, आपण `join` वापरू शकतो: ```python X = pd.get_dummies(new_pumpkins['Variety']) \ @@ -300,31 +319,31 @@ X = pd.get_dummies(new_pumpkins['Variety']) \ y = new_pumpkins['Price'] ``` -येथे आम्ही `City` आणि `Package` प्रकाराचाही विचार करतो, ज्यामुळे आम्हाला MSE 2.84 (10%) आणि निर्धारण 0.94 मिळते! +येथे आपण `City` आणि `Package` प्रकार देखील विचारात घेत आहोत, ज्यामुळे MSE 2.84 (10%) आणि निर्धारण 0.94 मिळते! -## सर्वकाही एकत्र ठेवणे +## सर्व एकत्र करणे -सर्वात चांगले मॉडेल तयार करण्यासाठी, आम्ही वरील उदाहरणातील संयुक्त (वन-हॉट एन्कोड केलेले श्रेणी + न्यूमेरिक) डेटा बहुपद रिग्रेशनसह वापरू शकतो. तुमच्या सोयीसाठी येथे संपूर्ण कोड आहे: +सर्वात चांगले मॉडेल तयार करण्यासाठी, आपण वरील उदाहरणातील एकत्रित (वन-हॉट एनकोडेड श्रेणीगत + संख्यात्मक) डेटा Polynomial Regression सह वापरू शकतो. आपल्यासाठी पूर्ण कोड खाली दिला आहे: ```python -# set up training data +# प्रशिक्षण डेटा सेट करा X = pd.get_dummies(new_pumpkins['Variety']) \ .join(new_pumpkins['Month']) \ .join(pd.get_dummies(new_pumpkins['City'])) \ .join(pd.get_dummies(new_pumpkins['Package'])) y = new_pumpkins['Price'] -# make train-test split +# ट्रेन-टेस्ट विभाजन करा X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) -# setup and train the pipeline +# पाइपलाइन सेटअप करा आणि प्रशिक्षण द्या pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) -# predict results for test data +# चाचणी डेटासाठी निकाल भाकीत करा pred = pipeline.predict(X_test) -# calculate MSE and determination +# MSE आणि निर्धारण गणना करा mse = np.sqrt(mean_squared_error(y_test,pred)) print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') @@ -332,34 +351,36 @@ score = pipeline.score(X_train,y_train) print('Model determination: ', score) ``` -यामुळे आम्हाला जवळजवळ 97% निर्धारण गुणांक आणि MSE=2.23 (~8% अंदाज त्रुटी) मिळेल. +हे आपल्याला जवळपास 97% चा सर्वोत्तम निर्धारण गुणांक आणि MSE=2.23 (~8% भाकित त्रुटी) देईल. | मॉडेल | MSE | निर्धारण | -|-------|-----|----------| -| `DayOfYear` रेषीय | 2.77 (17.2%) | 0.07 | -| `DayOfYear` बहुपद | 2.73 (17.0%) | 0.08 | -| `Variety` रेषीय | 5.24 (19.7%) | 0.77 | -| सर्व वैशिष्ट्ये रेषीय | 2.84 (10.5%) | 0.94 | -| सर्व वैशिष्ट्ये बहुपद | 2.23 (8.25%) | 0.97 | +|-------|-----|---------------| +| `DayOfYear` Linear | 2.77 (17.2%) | 0.07 | +| `DayOfYear` Polynomial | 2.73 (17.0%) | 0.08 | +| `Variety` Linear | 5.24 (19.7%) | 0.77 | +| सर्व वैशिष्ट्ये Linear | 2.84 (10.5%) | 0.94 | +| सर्व वैशिष्ट्ये Polynomial | 2.23 (8.25%) | 0.97 | -🏆 उत्तम काम! तुम्ही एका धड्यात चार रिग्रेशन मॉडेल्स तयार केली आणि मॉडेलची गुणवत्ता 97% पर्यंत सुधारली. रिग्रेशनवरील अंतिम विभागात, तुम्ही श्रेणी निश्चित करण्यासाठी लॉजिस्टिक रिग्रेशनबद्दल शिकाल. +🏆 छान काम! तुम्ही एका धड्यात चार रेग्रेशन मॉडेल तयार केली, आणि मॉडेल क्वालिटी 97% पर्यंत सुधारली. अंतिम विभागात, आपण Logistic Regression बद्दल शिकाल ज्याद्वारे वर्ग निश्चित केले जातात. --- -## 🚀चॅलेंज +## 🚀आव्हान -या नोटबुकमध्ये विविध व्हेरिएबल्स तपासा आणि पाहा की सहसंबंध मॉडेल अचूकतेशी कसा संबंधित आहे. +या नोटबुकमध्ये विविध व्हेरीएबल्ससह प्रयत्न करा आणि correlation आणि मॉडेल अचूकतेत कसा संबंध आहे हे तपासा. -## [पाठ-व्याख्यान क्विझ](https://ff-quizzes.netlify.app/en/ml/) +## [धड्यांनंतरचा क्विझ](https://ff-quizzes.netlify.app/en/ml/) -## पुनरावलोकन आणि स्व-अभ्यास +## पुनरावलोकन आणि स्वाध्याय -या धड्यात आपण रेषीय रिग्रेशनबद्दल शिकलो. रिग्रेशनचे इतर महत्त्वाचे प्रकार आहेत. Stepwise, Ridge, Lasso आणि Elasticnet तंत्रांबद्दल वाचा. अधिक शिकण्यासाठी एक चांगला अभ्यासक्रम म्हणजे [स्टॅनफोर्ड स्टॅटिस्टिकल लर्निंग कोर्स](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning). +या धड्यात आपण Linear Regression बद्दल शिकले. इतरही महत्त्वाचे Regression प्रकार आहेत. Stepwise, Ridge, Lasso आणि Elasticnet तंत्रे वाचा. अधिक शिकण्यासाठी एक चांगला अभ्यासक्रम म्हणजे [Stanford Statistical Learning course](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning) -## असाइनमेंट +## असाइनमेंट [मॉडेल तयार करा](assignment.md) --- -**अस्वीकरण**: -हा दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) चा वापर करून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी कृपया लक्षात घ्या की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील दस्तऐवज हा अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर केल्यामुळे उद्भवणाऱ्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही. \ No newline at end of file + +**अस्वीकरण**: +हा दस्तऐवज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) चा वापर करून भाषांतरित केला आहे. आम्ही अचूकतेसाठी प्रयत्न करत असलो तरी, कृपया लक्षात घ्या की स्वयंचलित अनुवादांमध्ये चुका किंवा अचूकतेची कमतरता असू शकते. मूळ दस्तऐवज त्याच्या स्थानिक भाषेत अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी अनुवादाची शिफारस केली जाते. या अनुवादाच्या वापरातून उद्भवणाऱ्या कोणत्याही गैरसमजुती किंवा चुकांसाठी आम्ही जबाबदार नाही. + \ No newline at end of file diff --git a/translations/mr/4-Classification/3-Classifiers-2/README.md b/translations/mr/4-Classification/3-Classifiers-2/README.md index e870f8987..a6dc40c36 100644 --- a/translations/mr/4-Classification/3-Classifiers-2/README.md +++ b/translations/mr/4-Classification/3-Classifiers-2/README.md @@ -1,44 +1,44 @@ -# क्युझीन वर्गीकरण २ +# स्वयंपाक वर्गीकरण器 2 -या दुसऱ्या वर्गीकरणाच्या धड्यात, तुम्ही संख्यात्मक डेटाचे वर्गीकरण करण्याचे अधिक मार्ग शोधाल. तसेच, एका वर्गीकरण पद्धतीच्या निवडीचे परिणाम काय असू शकतात हे देखील शिकाल. +या दुसऱ्या वर्गीकरण धड्यांमध्ये, तुम्ही संख्यात्मक डेटाचे वर्गीकरण करण्याचे अधिक मार्ग शोधाल. तुम्हाला एक वर्गीकरण器 दुसऱ्या पेक्षा निवडण्याचे परिणाम देखील समजतील. -## [पूर्व-व्याख्यान प्रश्नमंजुषा](https://ff-quizzes.netlify.app/en/ml/) +## [पूर्व-व्याख्यान क्विझ](https://ff-quizzes.netlify.app/en/ml/) ### पूर्वअट -आम्ही गृहीत धरतो की तुम्ही मागील धडे पूर्ण केले आहेत आणि तुमच्या `data` फोल्डरमध्ये _cleaned_cuisines.csv_ नावाचा स्वच्छ डेटा संच आहे, जो या ४-धड्यांच्या फोल्डरच्या मूळ ठिकाणी आहे. +आपण गृहित धरतो की तुम्ही मागील धडे पूर्ण केले आहेत आणि तुमच्या `data` फोल्डरमध्ये _cleaned_cuisines.csv_ नावाचा स्वच्छ डेटा संच आहे, जो या 4-धोड्यांच्या फोल्डरच्या मूळामध्ये आहे. ### तयारी -आम्ही तुमच्या _notebook.ipynb_ फाइलमध्ये स्वच्छ डेटा लोड केला आहे आणि तो X आणि y डेटा फ्रेम्समध्ये विभागला आहे, जो मॉडेल तयार करण्याच्या प्रक्रियेसाठी तयार आहे. +आम्ही तुमचा _notebook.ipynb_ फाईल स्वच्छ डेटासेटसह लोड केला आहे आणि त्याला X आणि y डेटा फ्रेम्समध्ये विभाजित केले आहे, जे मॉडेल तयार करण्याच्या प्रक्रियेसाठी तयार आहेत. -## वर्गीकरणाचा नकाशा +## वर्गीकरण नकाशा -यापूर्वी, तुम्ही मायक्रोसॉफ्टच्या चीट शीटचा वापर करून डेटा वर्गीकृत करण्याचे विविध पर्याय शिकला होता. Scikit-learn देखील एक समान, परंतु अधिक तपशीलवार चीट शीट प्रदान करते, जी तुमच्या वर्गीकरणासाठी योग्य पर्याय निवडण्यात मदत करू शकते: +पूर्वी तुम्ही Microsoft च्या चीट शीट वापरून डेटाचे वर्गीकरण करताना उपलब्ध पर्यायांविषयी शिकलात. Scikit-learn हा एक समान, पण अधिक सूक्ष्म चीट शीट देतो जो तुमच्या अंदाजकांवर (वर्गीकरण器चा दुसरा शब्द) अधिक सहकार्य करू शकतो: -![Scikit-learn कडून ML नकाशा](../../../../4-Classification/3-Classifiers-2/images/map.png) -> टीप: [हा नकाशा ऑनलाइन पहा](https://scikit-learn.org/stable/tutorial/machine_learning_map/) आणि मार्गावर क्लिक करून दस्तऐवज वाचा. +![Scikit-learn कडून ML नकाशा](../../../../translated_images/mr/map.e963a6a51349425a.webp) +> सूचना: [या नकाशाला ऑनलाइन भेट द्या](https://scikit-learn.org/stable/tutorial/machine_learning_map/) आणि दस्तऐवज वाचण्यासाठी मार्गावर क्लिक करा. ### योजना -हा नकाशा तुमच्या डेटाचा स्पष्ट अंदाज आल्यावर खूप उपयुक्त ठरतो, कारण तुम्ही त्याच्या मार्गांवरून निर्णय घेऊ शकता: +हा नकाशा तुमच्या डेटाची स्पष्ट कल्पना असताना खूप उपयुक्त आहे, कारण तुम्ही निर्णयासाठी त्याच्यावर 'चालू' शकता: -- आमच्याकडे >50 नमुने आहेत -- आम्हाला श्रेणीचा अंदाज लावायचा आहे -- आमच्याकडे लेबल केलेला डेटा आहे -- आमच्याकडे 100K पेक्षा कमी नमुने आहेत -- ✨ आम्ही Linear SVC निवडू शकतो -- जर ते काम केले नाही, कारण आमच्याकडे संख्यात्मक डेटा आहे - - आम्ही ✨ KNeighbors Classifier वापरून पाहू शकतो - - जर तेही काम केले नाही, तर ✨ SVC आणि ✨ Ensemble Classifiers वापरून पाहू शकतो +- आपल्याकडे >50 नमुने आहेत +- आपल्याला एखाद्या वर्गाची भाकीत करायची आहे +- आपल्याकडे लेबलेड डेटा आहे +- आपल्याकडे 100K पेक्षा कमी नमुने आहेत +- ✨ आपण Linear SVC निवडू शकतो +- जर ते कार्य केले नाही, तर आपल्याकडे संख्यात्मक डेटा असल्याने + - आपण एक ✨ KNeighbors वर्गीकरण器 वापरू शकतो + - जर तेही कार्य केले नाही, तर ✨ SVC आणि ✨ Ensemble वर्गीकरण器 वापरून पहा -हा मार्ग अनुसरण्यासाठी खूप उपयुक्त आहे. +ही एक खूप उपयुक्त मार्गदर्शिका आहे. -## व्यायाम - डेटा विभाजित करा +## सराव - डेटाचे विभाजन करा -या मार्गाचे अनुसरण करताना, आपल्याला वापरण्यासाठी काही लायब्ररी आयात करणे आवश्यक आहे. +या मार्गाचा अनुसरण करताना, आपण वापरण्यास काही लायब्ररीज आयात करुया. -1. आवश्यक लायब्ररी आयात करा: +1. आवश्यक लायब्ररीज आयात करा: ```python from sklearn.neighbors import KNeighborsClassifier @@ -53,28 +53,28 @@ 1. तुमचा प्रशिक्षण आणि चाचणी डेटा विभाजित करा: ```python - X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3) + X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3) ``` -## Linear SVC वर्गीकरण +## Linear SVC वर्गीकरण器 -Support-Vector Clustering (SVC) ही Support-Vector Machines या ML तंत्रज्ञानाच्या कुटुंबातील एक पद्धत आहे (खाली याबद्दल अधिक जाणून घ्या). या पद्धतीत, तुम्ही लेबल्स कसे गटबद्ध करायचे हे ठरवण्यासाठी 'kernel' निवडू शकता. 'C' पॅरामीटर 'regularization' दर्शवतो, जो पॅरामीटर्सच्या प्रभावाचे नियमन करतो. Kernel [काही पर्यायांपैकी](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC) एक असू शकतो; येथे आम्ही Linear SVC वापरण्यासाठी 'linear' सेट करतो. Probability डीफॉल्टने 'false' असते; येथे आम्ही Probability Estimates गोळा करण्यासाठी 'true' सेट करतो. Random State '0' वर सेट करतो, जेणेकरून डेटा शफल होईल आणि Probability मिळेल. +Support-Vector clustering (SVC) म्हणजे ML तंत्रज्ञानांच्या Support-Vector मशीन कुटुंबातील एक उपशाखा आहे (खाली याबद्दल अधिक वाचा). या पद्धतीत, तुम्ही लेबले कसे क्लस्टर करावेत हे ठरवण्यासाठी एक 'kernel' निवडू शकता. 'C' हा पॅरामीटर 'regularization' शी संबंधित आहे जो पॅरामीटरच्या प्रभावाला नियंत्रित करतो. kernel ही [काही](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC) असू शकते; येथे आम्ही ते 'linear' सेट केले आहे जेणेकरून आपण linear SVC वापरू. Probability ची मूल्ये डीफॉल्ट म्हणजे 'false'; येथे आम्ही ते 'true' ठेवले आहे जेणेकरून प्रॉबॅबिलिटी अंदाज मिळतील. आम्ही random state ला '0' सेट केले आहे ज्यामुळे डेटा शफल होतो आणि प्रॉबॅबिलिटी मिळते. -### व्यायाम - Linear SVC लागू करा +### सराव - linear SVC लागू करा -वर्गीकरणांची एक array तयार करून सुरुवात करा. आम्ही चाचणी करताना या array मध्ये हळूहळू भर घालू. +वर्गीकरण器ची एक यादी तयार करा. आपण चाचणी करताना हळूहळू या यादीत भर टाकाल. -1. Linear SVC ने सुरुवात करा: +1. Linear SVC ने सुरू करा: ```python C = 10 - # Create different classifiers. + # वेगवेगळे वर्गीकरण तयार करा. classifiers = { 'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0) } ``` -2. Linear SVC वापरून तुमचे मॉडेल प्रशिक्षण द्या आणि रिपोर्ट प्रिंट करा: +2. Linear SVC वापरून तुमचे मॉडेल प्रशिक्षित करा आणि अहवाल छापा: ```python n_classifiers = len(classifiers) @@ -88,7 +88,7 @@ Support-Vector Clustering (SVC) ही Support-Vector Machines या ML तं print(classification_report(y_test,y_pred)) ``` - परिणाम खूप चांगला आहे: + निकाल खूप चांगला आहे: ```output Accuracy (train) for Linear SVC: 78.6% @@ -105,21 +105,21 @@ Support-Vector Clustering (SVC) ही Support-Vector Machines या ML तं weighted avg 0.79 0.79 0.79 1199 ``` -## K-Neighbors वर्गीकरण +## K-Neighbors वर्गीकरण器 -K-Neighbors ही ML पद्धतींच्या "neighbors" कुटुंबाचा भाग आहे, जी पर्यवेक्षित आणि अप्रत्यक्ष शिक्षणासाठी वापरली जाऊ शकते. या पद्धतीत, पूर्वनिर्धारित बिंदू तयार केले जातात आणि डेटा या बिंदूंच्या आसपास गोळा केला जातो, ज्यामुळे डेटासाठी सामान्यीकृत लेबल्सचा अंदाज लावता येतो. +K-Neighbors हा ML पद्धतीच्या "शेजार्‍यांचे" कुटुंबातील एक भाग आहे, जो सुपर्वाइझ्ड आणि अनसुपर्वाइझ्ड दोन्ही शिक्षणासाठी वापरला जातो. या पद्धतीत, पूर्वनिर्धारित संख्येने पॉइंट्स तयार केले जातात आणि डेटा ह्या पॉइंट्सच्या भोवती जमलेला असतो ज्यामुळे सामान्यीकृत लेबले भाकीत केली जाऊ शकतात. -### व्यायाम - K-Neighbors वर्गीकरण लागू करा +### सराव - K-Neighbors वर्गीकरण器 लागू करा -मागील वर्गीकरण चांगले होते आणि डेटासह चांगले काम केले, परंतु कदाचित आम्हाला अधिक चांगली अचूकता मिळू शकेल. K-Neighbors वर्गीकरण वापरून पाहा. +मागील वर्गीकरण器 चांगला होता आणि डेटाशी चांगले दिसला, पण कदाचित आपण चांगला अचूकता मिळवू शकू. K-Neighbors वर्गीकरण器 वापरून बघा. -1. तुमच्या वर्गीकरण array मध्ये एक ओळ जोडा (Linear SVC आयटमनंतर अल्पविराम जोडा): +1. तुमच्या वर्गीकरण器 यादीत एक नवीन ओळ जोडा (Linear SVC नंतर कॉमा लावा): ```python 'KNN classifier': KNeighborsClassifier(C), ``` - परिणाम थोडा वाईट आहे: + निकाल थोडा कमी चांगला आहे: ```output Accuracy (train) for KNN classifier: 73.8% @@ -138,21 +138,21 @@ K-Neighbors ही ML पद्धतींच्या "neighbors" कुटु ✅ [K-Neighbors](https://scikit-learn.org/stable/modules/neighbors.html#neighbors) बद्दल जाणून घ्या -## Support Vector Classifier +## Support Vector वर्गीकरण器 -Support-Vector Classifiers हे [Support-Vector Machine](https://wikipedia.org/wiki/Support-vector_machine) कुटुंबातील भाग आहेत, जे वर्गीकरण आणि पुनर्रचना कार्यांसाठी वापरले जातात. SVMs "प्रशिक्षण उदाहरणांना जागेतील बिंदूंमध्ये नकाशित करतात" जेणेकरून दोन श्रेणींमधील अंतर जास्तीत जास्त होईल. त्यानंतरचा डेटा या जागेत नकाशित केला जातो, त्यामुळे त्यांची श्रेणी अंदाजित केली जाऊ शकते. +Support-Vector वर्गीकरण器 हे ML पद्धतीच्या [Support-Vector मशीन](https://wikipedia.org/wiki/Support-vector_machine) कुटुंबाचा भाग आहेत जे वर्गीकरण आणि रिग्रेशन कार्यासाठी वापरले जातात. SVM "प्रशिक्षण उदाहरणांना स्पेसमधील बिंदूंवर नकाशित करतात" ज्यामुळे दोन वर्गांमधील अंतर जास्तीत जास्त होते. नंतरचा डेटा या स्पेसमध्ये नकाशित होतो आणि त्याच्या वर्गाची भाकीत केली जाते. -### व्यायाम - Support Vector Classifier लागू करा +### सराव - Support Vector वर्गीकरण器 लागू करा -थोडी अधिक चांगली अचूकता मिळवण्यासाठी Support Vector Classifier वापरून पाहूया. +Support Vector वर्गीकरण器 वापरून थोडी अधिक अचूकता मिळवण्याचा प्रयत्न करूया. -1. K-Neighbors आयटमनंतर अल्पविराम जोडा आणि ही ओळ जोडा: +1. K-Neighbors नंतर कॉमा लावा आणि नंतर ही ओळ जोडा: ```python 'SVC': SVC(), ``` - परिणाम खूप चांगला आहे! + निकाल अगदी चांगला आहे! ```output Accuracy (train) for SVC: 83.2% @@ -171,16 +171,16 @@ Support-Vector Classifiers हे [Support-Vector Machine](https://wikipedia.org ✅ [Support-Vectors](https://scikit-learn.org/stable/modules/svm.html#svm) बद्दल जाणून घ्या -## Ensemble Classifiers +## Ensemble वर्गीकरण器 -मागील चाचणी खूप चांगली होती, तरीही आपण शेवटपर्यंतचा मार्ग अनुसरूया. 'Ensemble Classifiers' वापरून पाहूया, विशेषतः Random Forest आणि AdaBoost: +पूर्वीचा परीक्षण चांगला असल्याने, तरीही आपल्याला शेवटच्या टप्प्यापर्यंत जायचे आहे. आपण 'Ensemble वर्गीकरण器 वापरून बघू, विशेषतः Random Forest आणि AdaBoost: ```python 'RFST': RandomForestClassifier(n_estimators=100), 'ADA': AdaBoostClassifier(n_estimators=100) ``` -Random Forest साठी परिणाम खूप चांगला आहे: +निकाल खूप चांगला आहे, विशेषत: Random Forest साठी: ```output Accuracy (train) for RFST: 84.5% @@ -210,31 +210,33 @@ Accuracy (train) for ADA: 72.4% weighted avg 0.73 0.72 0.72 1199 ``` -✅ [Ensemble Classifiers](https://scikit-learn.org/stable/modules/ensemble.html) बद्दल जाणून घ्या +✅ [Ensemble वर्गीकरण器](https://scikit-learn.org/stable/modules/ensemble.html) बद्दल जाणून घ्या -ही Machine Learning पद्धत "काही बेस estimators च्या अंदाजांना एकत्र करते" जेणेकरून मॉडेलची गुणवत्ता सुधारली जाईल. आपल्या उदाहरणात, आम्ही Random Trees आणि AdaBoost वापरले. +या मशीन लर्निंग पद्धती "अनेक बेस अंदाजकांच्या भाकितांचे एकत्रीकरण" करतात ज्यामुळे मॉडेलची गुणवत्ता वाढते. आपल्या उदाहरणात, आपण Random Trees आणि AdaBoost वापरले. -- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), एक सरासरी पद्धत, 'decision trees' चा 'forest' तयार करते, ज्यामध्ये randomness समाविष्ट असते, ज्यामुळे overfitting टाळले जाते. n_estimators पॅरामीटर झाडांची संख्या सेट करतो. +- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), एक सरासरीकरण पद्धत, ज्यात विविधता टाळण्यासाठी 'decision trees' चा जंगल तयार केला जातो. n_estimators हा पॅरामीटर वृक्षांची संख्या दर्शवितो. -- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) एका डेटासेटवर classifier बसवतो आणि नंतर त्याच डेटासेटवर त्या classifier च्या प्रती बसवतो. चुकीने वर्गीकृत केलेल्या आयटम्सच्या वजनांवर लक्ष केंद्रित करतो आणि पुढील classifier साठी फिट समायोजित करतो. +- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) एका वर्गीकरण器ला डेटासेटवर फिट करतो आणि नंतर त्याच वर्गीकरण器च्या प्रती त्या डेटासेटवर फिट करतो. त्याने चुकीने वर्गीकृत वस्तूंच्या वजनांवर लक्ष केंद्रित केले जाते आणि पुढील वर्गीकरणासाठी फिट समायोजित करतो. --- -## 🚀 आव्हान +## 🚀आव्हान -या प्रत्येक तंत्रज्ञानामध्ये तुम्ही बदलू शकता असे बरेच पॅरामीटर्स असतात. प्रत्येकाच्या डीफॉल्ट पॅरामीटर्सचा अभ्यास करा आणि हे पॅरामीटर्स बदलल्याने मॉडेलच्या गुणवत्तेवर काय परिणाम होईल याचा विचार करा. +या प्रत्येक तंत्रज्ञानात अनेक पॅरामीटर्स असतात ज्यांना तुम्ही बदलू शकता. प्रत्येकाच्या डीफॉल्ट पॅरामीटर्सचा शोध घ्या आणि विचार करा की त्या पॅरामीटर्समध्ये बदल केल्याने मॉडेलच्या गुणवत्तेवर काय परिणाम होईल. -## [व्याख्यानानंतरची प्रश्नमंजुषा](https://ff-quizzes.netlify.app/en/ml/) +## [पोस्ट-व्याख्यान क्विझ](https://ff-quizzes.netlify.app/en/ml/) -## पुनरावलोकन आणि स्व-अभ्यास +## पुनरावलोकन आणि स्वअध्ययन -या धड्यांमध्ये बरीच तांत्रिक शब्दावली आहे, त्यामुळे [या यादीचा](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) आढावा घ्या, जी उपयुक्त संज्ञांची आहे! +या धड्यात खूप तांत्रिक शब्द आहेत, त्यामुळे [ही यादी](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) वेळ देऊन पाहा आणि उपयुक्त टर्मिनॉलॉजी समजून घ्या! -## असाइनमेंट +## असाइनमेंट [पॅरामीटर प्ले](assignment.md) --- -**अस्वीकरण**: -हा दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) चा वापर करून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात घ्या की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील मूळ दस्तऐवज हा अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर केल्यामुळे उद्भवणाऱ्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही. \ No newline at end of file + +**सूचना**: +हे दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून भाषांतरित केलेले आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात घ्या की स्वयंचलित भाषांतरात चुका किंवा असत्यता असू शकतात. मूळ दस्तऐवज त्याच्या मूळ भाषेत अधिकृत स्त्रोत मानला जावा. अत्यावश्यक माहितींसाठी, व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराच्या वापरामुळे होणाऱ्या कोणत्याही गैरसमजुती किंवा चुकीच्या अर्थालाबद्दल आम्ही जबाबदार नाही. + \ No newline at end of file diff --git a/translations/mr/4-Classification/3-Classifiers-2/notebook.ipynb b/translations/mr/4-Classification/3-Classifiers-2/notebook.ipynb index 592cc9c16..7a6a140a6 100644 --- a/translations/mr/4-Classification/3-Classifiers-2/notebook.ipynb +++ b/translations/mr/4-Classification/3-Classifiers-2/notebook.ipynb @@ -3,7 +3,9 @@ { "cell_type": "markdown", "metadata": {}, - "source": [] + "source": [ + "# वर्गीकरण मॉडेल तयार करा\n" + ] }, { "cell_type": "code", @@ -114,15 +116,15 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**अस्वीकरण**: \nहा दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी कृपया लक्षात ठेवा की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील दस्तऐवज हा अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर करून निर्माण होणाऱ्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही.\n" + "---\n\n\n**अस्वीकरण**:\nहा दस्तऐवज AI अनुवाद सेवेद्वारे [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून अनुवादित केला आहे. आम्ही अचूकतेसाठी प्रयत्नशील आहोत, तरी कृपया लक्षात घ्या की स्वयंचलित अनुवादामध्ये चुका किंवा अचूकतेची त्रुटी असू शकतात. मूळ दस्तऐवज त्याच्या स्थानिक भाषेत अधिकृत स्रोत मानला जावा. महत्त्वाची माहिती असल्यास व्यावसायिक मानवी अनुवादाचा सल्ला दिला जातो. या अनुवादाच्या वापरामुळे उद्भवलेल्या कोणत्याही गैरसमजुती किंवा चुकीच्या अर्थव्यवस्थेसाठी आम्ही जबाबदार नाही.\n\n" ] } ], @@ -150,12 +152,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "15a83277036572e0773229b5f21c1e12", - "translation_date": "2025-08-29T19:28:25+00:00", - "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", - "language_code": "mr" } }, "nbformat": 4, diff --git a/translations/mr/4-Classification/3-Classifiers-2/solution/notebook.ipynb b/translations/mr/4-Classification/3-Classifiers-2/solution/notebook.ipynb index 777d9109b..104644d92 100644 --- a/translations/mr/4-Classification/3-Classifiers-2/solution/notebook.ipynb +++ b/translations/mr/4-Classification/3-Classifiers-2/solution/notebook.ipynb @@ -1,7 +1,9 @@ { "cells": [ { - "source": [], + "source": [ + "# अधिक वर्गीकरण मॉडेल तयार करा\n" + ], "cell_type": "markdown", "metadata": {} }, @@ -114,14 +116,16 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, - "source": [] + "source": [ + "# वेगवेगळे वर्गीकर्ते प्रयत्न करा\n" + ] }, { "cell_type": "code", @@ -144,7 +148,7 @@ "metadata": {}, "outputs": [], "source": [ - "X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3)" + "X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)" ] }, { @@ -259,7 +263,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**अस्वीकरण**: \nहा दस्तऐवज AI भाषांतर सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून भाषांतरित करण्यात आला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात ठेवा की स्वयंचलित भाषांतरांमध्ये त्रुटी किंवा अचूकतेचा अभाव असू शकतो. मूळ भाषेतील दस्तऐवज हा अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी, व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराचा वापर करून निर्माण होणाऱ्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार राहणार नाही.\n" + "---\n\n\n**स्वत:ची जबाबदारी**:\nहा दस्तऐवज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून अनुवादित केला आहे. आम्ही अचूकतेसाठी प्रयत्नशील आहोत, परंतु कृपया लक्षात घ्या की स्वयंचलित अनुवादांमध्ये त्रुटी किंवा अचूकतेत कमतरता असू शकते. मूळ दस्तऐवज त्याच्या स्थानिक भाषेत अधिकृत स्रोत मानला जावा. महत्वाची माहिती साठी व्यावसायिक मानवी अनुवाद करण्याचा सल्ला दिला जातो. या अनुवादाच्या वापरामुळे उद्भवलेल्या कोणत्याही गैरसमजुती किंवा चुकीच्या अर्थनिर्णयानबद्दल आम्ही जबाबदार नाही.\n\n" ] } ], @@ -287,12 +291,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "7ea2b714669c823a596d986ba2d5739f", - "translation_date": "2025-08-29T19:28:36+00:00", - "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", - "language_code": "mr" } }, "nbformat": 4, diff --git a/translations/mr/README.md b/translations/mr/README.md index 3a79e900c..7738c01a5 100644 --- a/translations/mr/README.md +++ b/translations/mr/README.md @@ -1,169 +1,166 @@ -[![GitHub license](https://img.shields.io/github/license/microsoft/ML-For-Beginners.svg)](https://github.com/microsoft/ML-For-Beginners/blob/master/LICENSE) -[![GitHub contributors](https://img.shields.io/github/contributors/microsoft/ML-For-Beginners.svg)](https://GitHub.com/microsoft/ML-For-Beginners/graphs/contributors/) -[![GitHub issues](https://img.shields.io/github/issues/microsoft/ML-For-Beginners.svg)](https://GitHub.com/microsoft/ML-For-Beginners/issues/) -[![GitHub pull-requests](https://img.shields.io/github/issues-pr/microsoft/ML-For-Beginners.svg)](https://GitHub.com/microsoft/ML-For-Beginners/pulls/) -[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com) - -[![GitHub watchers](https://img.shields.io/github/watchers/microsoft/ML-For-Beginners.svg?style=social&label=Watch)](https://GitHub.com/microsoft/ML-For-Beginners/watchers/) -[![GitHub forks](https://img.shields.io/github/forks/microsoft/ML-For-Beginners.svg?style=social&label=Fork)](https://GitHub.com/microsoft/ML-For-Beginners/network/) -[![GitHub stars](https://img.shields.io/github/stars/microsoft/ML-For-Beginners.svg?style=social&label=Star)](https://GitHub.com/microsoft/ML-For-Beginners/stargazers/) - ### 🌐 बहुभाषिक समर्थन -#### GitHub Action द्वारे समर्थन (स्वयंचलित आणि नेहमी अद्ययावत) - - -[अरबी](../ar/README.md) | [बंगाली](../bn/README.md) | [बल्गेरियन](../bg/README.md) | [बर्मी (म्यानमार)](../my/README.md) | [चिनी (सोपे)](../zh-CN/README.md) | [चिनी (परंपरागत, हाँगकाँग)](../zh-HK/README.md) | [चिनी (परंपरागत, मकाऊ)](../zh-MO/README.md) | [चिनी (परंपरागत, तैवान)](../zh-TW/README.md) | [क्रोएशियन](../hr/README.md) | [चेक](../cs/README.md) | [डॅनिश](../da/README.md) | [डच](../nl/README.md) | [एस्टोनियन](../et/README.md) | [फिनिश](../fi/README.md) | [फ्रेंच](../fr/README.md) | [जर्मन](../de/README.md) | [ग्रीक](../el/README.md) | [हिब्रू](../he/README.md) | [हिंदी](../hi/README.md) | [हंगेरीयन](../hu/README.md) | [इंडोनेशियन](../id/README.md) | [इटालियन](../it/README.md) | [जपानी](../ja/README.md) | [कन्नड](../kn/README.md) | [कोरियन](../ko/README.md) | [लिथुवेनियन](../lt/README.md) | [मलय](../ms/README.md) | [मलयाळम](../ml/README.md) | [मराठी](./README.md) | [नेपाली](../ne/README.md) | [नायजेरियन पिजिन](../pcm/README.md) | [नॉर्वेजियन](../no/README.md) | [फारसी (पर्शियन)](../fa/README.md) | [पोलिश](../pl/README.md) | [पुर्तगाली (ब्राझील)](../pt-BR/README.md) | [पुर्तगाली (पोर्तुगाल)](../pt-PT/README.md) | [पंजाबी (गुरमुखी)](../pa/README.md) | [रोमानीयन](../ro/README.md) | [रशियन](../ru/README.md) | [सर्बियन (सिरिलिक)](../sr/README.md) | [स्लोव्हाक](../sk/README.md) | [स्लोव्हेनियन](../sl/README.md) | [स्पॅनिश](../es/README.md) | [स्वाहिली](../sw/README.md) | [स्विडीश](../sv/README.md) | [टागालोग (फिलिपिनो)](../tl/README.md) | [तमिळ](../ta/README.md) | [तेलुगू](../te/README.md) | [थाई](../th/README.md) | [तुर्की](../tr/README.md) | [युक्रेनियन](../uk/README.md) | [उर्दू](../ur/README.md) | [व्हिएतनामी](../vi/README.md) +#### GitHub क्रियेसह (स्वयंचलित आणि नेहमी अद्ययावत) -> **स्थानिकरित्या क्लोन करणे प्राधान्य देता?** +[अरेबिक](../ar/README.md) | [बंगाली](../bn/README.md) | [बुल्गेरियन](../bg/README.md) | [बर्मीस (म्यानमार)](../my/README.md) | [चिनी (सोपे)](../zh-CN/README.md) | [चिनी (परंपरागत, हाँग काँग)](../zh-HK/README.md) | [चिनी (परंपरागत, मकाऊ)](../zh-MO/README.md) | [चिनी (परंपरागत, तैवान)](../zh-TW/README.md) | [क्रोएशियन](../hr/README.md) | [चेक](../cs/README.md) | [डॅनिश](../da/README.md) | [डच](../nl/README.md) | [एस्टोनियन](../et/README.md) | [फिनिश](../fi/README.md) | [फ्रेंच](../fr/README.md) | [जर्मन](../de/README.md) | [ग्रीक](../el/README.md) | [हेब्रू](../he/README.md) | [हिंदी](../hi/README.md) | [हंगेरियन](../hu/README.md) | [इंडोनेशियन](../id/README.md) | [इटालियन](../it/README.md) | [जपानी](../ja/README.md) | [कन्नड](../kn/README.md) | [कोरियन](../ko/README.md) | [लिथुआनियन](../lt/README.md) | [मलय](../ms/README.md) | [मलयाळम](../ml/README.md) | [मराठी](./README.md) | [नेपाली](../ne/README.md) | [नायजेरियन पिड्गिन](../pcm/README.md) | [नॉर्वेजियन](../no/README.md) | [फारसी (फारशी)](../fa/README.md) | [पोलिश](../pl/README.md) | [पोर्तुगीज (ब्राझील)](../pt-BR/README.md) | [पोर्तुगीज (पोर्तुगाल)](../pt-PT/README.md) | [पंजाबी (गुरमुखी)](../pa/README.md) | [रोमानियन](../ro/README.md) | [रशियन](../ru/README.md) | [सर्बियन (सिरिलिक)](../sr/README.md) | [स्लोव्हाक](../sk/README.md) | [स्लोव्हेनियन](../sl/README.md) | [स्पॅनिश](../es/README.md) | [स्वाहिली](../sw/README.md) | [स्वीडिश](../sv/README.md) | [टागालॉग (फिलिपिनो)](../tl/README.md) | [तमिळ](../ta/README.md) | [तेलुगू](../te/README.md) | [थाई](../th/README.md) | [तुर्की](../tr/README.md) | [युक्रेनियन](../uk/README.md) | [उर्दू](../ur/README.md) | [व्हिएतनामीज](../vi/README.md) -> या रिपॉझिटरीमध्ये 50+ भाषा अनुवाद आहेत ज्यामुळे डाउनलोड आकार लक्षणीय वाढतो. भाषांतरांशिवाय क्लोन करण्यासाठी, sparse checkout वापरा: +> **स्थानिक क्लोन करायचा आहे का?** +> +> या रिपॉझिटरीमध्ये 50+ भाषा अनुवाद आहेत जे डाउनलोडचा आकार मोठा करतात. अनुवादांशिवाय क्लोन करण्यासाठी sparse checkout वापरा: +> +> **Bash / macOS / Linux:** > ```bash > git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git > cd ML-For-Beginners > git sparse-checkout set --no-cone '/*' '!translations' '!translated_images' > ``` -> यामुळे तुम्हाला कोर्स पूर्ण करण्यासाठी आवश्यक सर्व काही मिळेल आणि डाउनलोड खूप जलद होईल. - - +> +> **CMD (Windows):** +> ```cmd +> git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git +> cd ML-For-Beginners +> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images" +> ``` +> +> या पद्धतीने तुम्हाला कोर्स पूर्ण करण्यासाठी आवश्यक सर्वकाही मिळेल आणि डाउनलोड अधिक वेगवान होईल. + #### आमच्या समुदायात सामील व्हा [![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -आमच्याकडे Discord वर AI सोबत शिकण्याची मालिका चालू आहे, अधिक जाणून घेण्यासाठी आणि १८ - ३० सप्टेंबर, २०२५ रोजी [Learn with AI Series](https://aka.ms/learnwithai/discord) मध्ये आमच्यासोबत सहभागी व्हा. तुम्हाला GitHub Copilot चा Data Science साठी वापर टिप्स आणि ट्रिक्स मिळतील. +आम्ही AI सह शिका सिरीज Discord मध्ये चालू आहे, अधिक माहिती घेण्यासाठी आणि सहभागी होण्यासाठी येथे जा [Learn with AI Series](https://aka.ms/learnwithai/discord) 18 - 30 सप्टेंबर, 2025. तुम्हाला GitHub Copilot चा डेटा सायन्समध्ये वापर करण्याचे टिप्स आणि ट्रिक्स मिळतील. ![Learn with AI series](../../translated_images/mr/3.9b58fd8d6c373c20.webp) -# नवीन शिकणाऱ्यांसाठी मशीन लर्निंग - एक अभ्यासक्रम +# बिगिनर्ससाठी मशीन लर्निंग - एक अभ्यासक्रम -> 🌍 जगभर प्रवास करा जेव्हा आपण मशीन लर्निंगला जगातील संस्कृतींद्वारे शोधतो 🌍 +> 🌍 जगभर फिरताना आपण मशीन लर्निंग जगभरातील संस्कृतींद्वारे शिकलो 🌍 -Microsoft मधील Cloud Advocates या 12 आठवडे व 26 धडे असलेल्या **मशीन लर्निंग** वर आधारित अभ्यासक्रमाची ऑफर देत आहेत. या अभ्यासक्रमात, तुम्ही जे काही कधी कधी **परंपरागत मशीन लर्निंग** म्हणतात, ते शिकाल, मुख्यत्वे Scikit-learn हे लायब्ररी वापरून, आणि डीप लर्निंग टाळाल, ज्याचा समावेश आमच्या [AI for Beginners' curriculum](https://aka.ms/ai4beginners) मध्ये आहे. या धडे आमच्या ['Data Science for Beginners' curriculum](https://aka.ms/ds4beginners) सोबत देखील जोडा. +Microsoft मधील Cloud Advocates हे १२ आठवड्यांचे, २६ धडा असलेले **मशीन लर्निंग** विषयी अभ्यासक्रम सादर करत आहेत. या अभ्यासक्रमात तुम्हाला बहुतेक वेळ Scikit-learn या लायब्ररीचा वापर करून “शास्त्रीय मशीन लर्निंग” काय आहे ते शिकवले जाईल, डीप लर्निंग टाळले जाईल, जे आमच्या [AI for Beginners' curriculum](https://aka.ms/ai4beginners) मध्ये समाविष्ट आहे. या धड्यांना आमच्या ['Data Science for Beginners' curriculum](https://aka.ms/ds4beginners) सह जोडा! -आमच्यासोबत जगभर प्रवास करा आणि विविध भागातील डेटावर हे परंपरागत तंत्र वापरून पाहा. प्रत्येक धड्यात पूर्व-आणि पश्चात-धडा क्विझ, लिहिलेली सूचना, एक उपाय, एक गृहपाठ आणि बरेच काही आहे. आमची प्रकल्पाधारित शिक्षणपद्धती तुम्हाला बांधणी करताना शिकण्याची संधी देते, जी नवीन कौशल्ये टिकवण्यासाठी सिद्ध झाली आहे. +जगभर फिरत असताना विविध क्षेत्रांतील डेटा वापरून हे शास्त्रीय तंत्र शिकूया. प्रत्येक धड्यात प्री आणि पोस्ट लेक्चर क्विझेस, लिहिलेले सूचना, एक उपाय, एक असाईनमेंट आणि बरेच काही असेल. आमच्या प्रोजेक्ट-आधारित शिक्षण पद्धतीने तुम्ही शिकत असताना तयार कराल, ज्यामुळे नवीन कौशल्ये अधिक चांगली राहतात. -**✍️ आमच्या लेखकांना मनापासून धन्यवाद** जेण लूपर, स्टीफन हॉवेल, फ्रानसेस्का लझझेरी, टोमॉमी इमुरा, कॅसी ब्रेव्हीयू, दमित्री सोशnikov, क्रिस नोरिंग, अनिर्बन मुखर्जी, ओरनेल्ला अलटुन्यान, रुथ याकुबू आणि एमी बॉयड +**✍️ आमच्या लेखकांचे मनापासून आभार** Jen Looper, Stephen Howell, Francesca Lazzeri, Tomomi Imura, Cassie Breviu, Dmitry Soshnikov, Chris Noring, Anirban Mukherjee, Ornella Altunyan, Ruth Yakubu आणि Amy Boyd -**🎨 आमच्या कलाकारांना देखील धन्यवाद** टोमॉमी इमुरा, दसानि मडिपल्ली, आणि जेण लूपर +**🎨 आमच्या चित्रकारांचेही धन्यवाद** Tomomi Imura, Dasani Madipalli, आणि Jen Looper -**🙏 विशेष धन्यवाद 🙏 आमच्या Microsoft विद्यार्थ्यांसाठी राजदूत लेखक, समीक्षक आणि सामग्री योगदानकर्त्यांना**, विशेषतः ऋषित डागली, मुहम्मद साकिब खान इनान, रोहन राज, अलेक्झांडरु पेट्रेस्कू, अभिषेक जैनवाल, नवरीन तबस्सूम, इओआन सामुइला, आणि स्निग्धा अग्रवाल +**🙏 खास धन्यवाद 🙏 Microsoft Student Ambassador लेखक, पुनरावलोकक आणि सामग्री देणाऱ्यांना**, विशेषतः Rishit Dagli, Muhammad Sakib Khan Inan, Rohan Raj, Alexandru Petrescu, Abhishek Jaiswal, Nawrin Tabassum, Ioan Samuila, आणि Snigdha Agarwal -**🤩 अतिरिक्त आभार Microsoft विद्यार्थी राजदूत एरिक वनजाऊ, जसलीन सोंधि, आणि विदुषी गुप्ता यांना आमच्या R धड्यांसाठी!** +**🤩 आमच्या R धड्यांसाठी Microsoft Student Ambassadors Eric Wanjau, Jasleen Sondhi, आणि Vidushi Gupta यांचे अतिरिक्त आभार!** -# सुरुवात कशी करायची +# सुरुवात कशी करावी -हे पायऱ्या फॉलो करा: -1. **रिपॉझिटरी फोर्क करा**: या पृष्ठाच्या वरच्या उजव्या कोपऱ्यातील "Fork" बटणावर क्लिक करा. -2. **रिपॉझिटरी क्लोन करा**: `git clone https://github.com/microsoft/ML-For-Beginners.git` +या टप्प्यांचे अनुसरण करा: +1. **रिपॉझिटरीची Fork करा**: या पृष्ठाच्या वरच्या उजव्या कोपर्‍यातील "Fork" बटणावर क्लिक करा. +2. **रिपॉझिटरी क्लोन करा**: `git clone https://github.com/microsoft/ML-For-Beginners.git` > [या कोर्ससाठी सर्व अतिरिक्त संसाधने आमच्या Microsoft Learn संग्रहात शोधा](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) -> 🔧 **मदत हवी आहे का?** स्थापन, सेटअप, आणि धडे चालवण्याच्या सामान्य त्रुटींसाठी आमच्या [Troubleshooting Guide](TROUBLESHOOTING.md) ला पहा. +> 🔧 **मदतीची गरज आहे का?** इंस्टॉलेशन, सेटअप, आणि धडे चालवण्यासंबंधी सामान्य समस्यांसाठी आमचा [Troubleshooting Guide](TROUBLESHOOTING.md) तपासा. +**[विद्यार्थी](https://aka.ms/student-page)**, हा अभ्यासक्रम वापरण्यासाठी, पूर्ण रिपॉझिटरी आपल्या GitHub खात्यात Fork करा आणि आपण स्वतः किंवा समूहासह व्यायाम पूर्ण करा: -**[विद्यार्थी](https://aka.ms/student-page)**, या अभ्यासक्रमाचा वापर करण्यासाठी, संपूर्ण रेपो आपल्या GitHub खात्यात फोर्क करा आणि स्वतः किंवा गटात करून एक्सरसाइज पूर्ण करा: +- प्री-लेक्चर क्विझ पास करा. +- लेक्चर वाचा आणि क्रियाकलाप पूर्ण करा, प्रत्येक ज्ञान तपासणीत थांबून विचार करा. +- उपाय कोड ध्येय न करता धडे समजून प्रोजेक्ट तयार करण्याचा प्रयत्न करा; तरी हा कोड प्रत्येक प्रोजेक्ट-आधारित धड्याच्या `/solution` फोल्डरमध्ये उपलब्ध आहे. +- पोस्ट-लेक्चर क्विझ घ्या. +- चॅलेंज पूर्ण करा. +- असाईनमेंट पूर्ण करा. +- धडे गट पूर्ण केल्यानंतर, [Discussion Board](https://github.com/microsoft/ML-For-Beginners/discussions) ला भेट द्या आणि योग्य PAT रूपरेषा भरून "आउट लाउड शिकण्याचा" सराव करा. 'PAT' म्हणजे प्रगती मूल्यांकन साधन ज्याद्वारे आपण शिकतांना पुढे जाऊ शकता. तुम्ही इतर PAT वर प्रतिक्रिया देखील देऊ शकता जेणेकरून आपण एकत्र शिकू शकू. -- पूर्व व्याख्यान क्विझसह सुरू करा. -- व्याख्यान वाचा आणि कृती पूर्ण करा, प्रत्येक ज्ञान तपासणीवर थांबा आणि विचार करा. -- धडे समजून घेऊन प्रकल्प तयार करण्याचा प्रयत्न करा, फक्त सोल्यूशन कोड चालवू नका; तथापि ते कोड प्रत्येक प्रकल्पावर आधारित धड्यात `/solution` फोल्डरात उपलब्ध आहे. -- पश्चात-व्याख्यान क्विझ घ्या. -- आव्हान पूर्ण करा. -- गृहपाठ पूर्ण करा. -- धड्यांच्या गटानंतर, [Discussion Board](https://github.com/microsoft/ML-For-Beginners/discussions) येथे भेट द्या आणि योग्य PAT रूब्रिक भरून "लर्न आउट लाउड" करा. 'PAT' म्हणजे प्रगती मूल्यांकन साधन, जे तुम्ही भरता आणि तुमच्या शिक्षणासाठी उपयुक्त ठरते. तुम्ही इतर PATs वर देखील प्रतिक्रिया देऊ शकता जेणेकरून आपण एकत्र शिकू शकू. +> पुढील अभ्यासासाठी आम्ही या [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) मॉड्यूल्स आणि प्रशिक्षण मार्गांचे अनुसरण करण्याची शिफारस करतो. -> पुढील अभ्यासासाठी, आम्ही या [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) मॉड्यूल्स आणि शिक्षण मार्गांचे पालन करण्याचा सल्ला देतो. - -**शिक्षकांनो**, आम्ही या अभ्यासक्रमाचा वापर कसा करावा यावर [काही सूचना](for-teachers.md) दिल्या आहेत. +**शिक्षक**, आम्ही [काही सूचना](for-teachers.md) दिल्या आहेत की हा अभ्यासक्रम कसा वापरायचा. --- -## व्हिडिओ वॉकथ्रूज +## व्हिडिओ मार्गदर्शक -काही धडे लघु व्हिडिओ रूपात उपलब्ध आहेत. तुम्ही हे सर्व धडय़ांमध्ये इन-लाइन पाहू शकता, किंवा [Microsoft Developer YouTube चॅनेलवरील ML for Beginners प्लेलिस्ट](https://aka.ms/ml-beginners-videos) वर खालील प्रतिमेवर क्लिक करून पाहू शकता. +काही धडे लघु व्हिडिओ रूपात उपलब्ध आहेत. तुम्हाला हे धडे ओळीत किंवा [Microsoft Developer YouTube चैनलवरील ML for Beginners प्लेलिस्टमध्ये](https://aka.ms/ml-beginners-videos) पाहता येतील, खालील प्रतिमेवर क्लिक करा. [![ML for beginners banner](../../translated_images/mr/ml-for-beginners-video-banner.63f694a100034bc6.webp)](https://aka.ms/ml-beginners-videos) --- -## टीमची ओळख +## टीमला भेटा [![Promo video](../../images/ml.gif)](https://youtu.be/Tj1XWrDSYJU) -**Gif बनवलेले** [मोहित जैसल](https://linkedin.com/in/mohitjaisal) +**चित्रपट मोहित जयसाल यांनी बनवलेले आहे** [Mohit Jaisal](https://linkedin.com/in/mohitjaisal) -> 🎥 प्रकल्प आणि निर्मात्यांविषयी व्हिडिओसाठी वरिल प्रतिमेवर क्लिक करा! +> 🎥 प्रकल्प आणि त्याचे निर्माते याबद्दल व्हिडिओसाठी वर दिलेल्या प्रतिमेवर क्लिक करा! --- -## शिक्षणशास्त्र +## शिक्षण पद्धती -आम्ही या अभ्यासक्रमात दोन शैक्षणिक तत्त्वे निवडली आहेत: हे हाताळण्यास **प्रकल्प-आधारित** करणे आणि त्यामध्ये **वारंवार क्विझ** असणे आवश्यक आहे. तसेच, या अभ्यासक्रमाला एक सामान्य **थीम** दिली आहे ज्यामुळे संपूर्ण अभ्यासक्रम एकत्रितपणे जोडून दिसतो. +या अभ्यासक्रमासाठी आम्ही दोन शैक्षणिक तत्त्वे निवडली आहेत: ते हाताळणीच्या **प्रोजेक्ट-आधारित** असणे आणि **वारंवार क्विझ** असणे. याशिवाय, हा अभ्यासक्रम एका संयुक्त **थीमवर** आधारित आहे. -सामग्री प्रकल्पांशी संरेखित असल्याने, विद्यार्थ्यांसाठी प्रक्रिया अधिक आकर्षक होते आणि संकल्पनांचा ध्यास वाढतो. याशिवाय, वर्गापूर्वी कमी धोकादायक क्विझ विद्यार्थ्यांना विषय शिकण्यास उद्दिष्ट बनवतो, तर वर्गानंतरचा क्विझ अधिक टिकाऊ ज्ञान सुनिश्चित करतो. हा अभ्यासक्रम लवचिक आणि मजेदार राहील असे डिझाइन केला आहे व तो संपूर्ण किंवा भागांमध्ये करता येऊ शकतो. प्रकल्प सुरुवातीला सोपे असतात आणि 12 आठवड्यांच्या चक्राच्या शेवटी अधिक क्लिष्ट होतात. या अभ्यासक्रमात ML च्या वास्तविक जगातील अनुप्रयोगांवर पोस्टस्क्रिप्ट देखील आहे, जी अतिरिक्त गुणांसाठी किंवा चर्चेसाठी वापरता येते. +सामग्री प्रोजेक्ट्सशी जुळवून देऊन हे विद्यार्थी अधिक गुंतवून ठेवणारे आणि संकल्पना लक्षात ठेवायला मदत करणारे होते. वर्गापूर्वी कमी दबावाचा क्विझ शिकण्याच्या उद्दिष्टाला मदत करतो, तर वर्गानंतर दुसरा क्विझ अधिक चांगल्या लक्षात ठेवणाऱया मदत करतो. हा अभ्यासक्रम लवचिक आणि मजेदार आहे, पूर्ण किंवा भागांमध्ये शिकता येतो. प्रोजेक्ट्स लहान पासून सुरुवात होतात आणि अंतिम १२ आठवड्यांच्या चक्रात अधिक जटिल होतात. हा अभ्यासक्रम ML च्या प्रत्यक्ष जगातील वापरांवर एक पोस्टस्क्रिप्ट देखील समाविष्ट करतो, जी अतिरिक्त गुणांसाठी किंवा चर्चेसाठी वापरता येऊ शकते. -> आमची [वर्तनसंहिता](CODE_OF_CONDUCT.md), [योगदान कसे करावे](CONTRIBUTING.md), [भाषांतर मार्गदर्शक](TRANSLATIONS.md), आणि [त्रुटी सोडवण्याचा मार्गदर्शक](TROUBLESHOOTING.md) पहा. तुमचे रचनात्मक अभिप्राय आम्हाला स्वागतार्ह आहेत! +> आमचा [नेहमीचे आचारसंहिता](CODE_OF_CONDUCT.md), [योगदान](CONTRIBUTING.md), [भाषांतर](TRANSLATIONS.md), आणि [समस्या निराकरण](TROUBLESHOOTING.md) मार्गदर्शक शोधा. तुमच्या रचनात्मक अभिप्रायाचे स्वागत आहे! ## प्रत्येक धड्यात समाविष्ट आहे -- ऐच्छिक स्केचनोट +- ऐच्छिक स्केच नोट - ऐच्छिक पूरक व्हिडिओ -- व्हिडिओ वॉकथ्रू (काही धडा) -- [पूर्व-व्याख्यान गरमावा क्विझ](https://ff-quizzes.netlify.app/en/ml/) +- व्हिडिओ मार्गदर्शक (काही धड्यांसाठी) +- [प्री-लेक्चर वॉर्म-अप क्विझ](https://ff-quizzes.netlify.app/en/ml/) - लिहिलेला धडा -- प्रकल्प-आधारित धड्यांसाठी, प्रकल्प कसा तयार करायचा याबद्दल टप्प्याटप्प्याने मार्गदर्शक -- ज्ञान तपासण्या +- प्रोजेक्ट-आधारित धड्यांसाठी प्रोजेक्ट तयार करण्याचे चरण-दर-चरण मार्गदर्शक +- ज्ञान तपासणी - एक आव्हान - पूरक वाचन -- गृहपाठ -- [पश्चात-व्याख्यान क्विझ](https://ff-quizzes.netlify.app/en/ml/) +- असाईनमेंट +- [पोस्ट-लेक्चर क्विझ](https://ff-quizzes.netlify.app/en/ml/) +> **भाषांबद्दल एक टीप**: हे धडे प्रामुख्याने Python मध्ये लिहिलेले आहेत, पण अनेक R मध्ये देखील उपलब्ध आहेत. R धडा पूर्ण करण्यासाठी `/solution` फोल्डरमध्ये जाऊन R धडे शोधा. त्यात .rmd विस्तार असतो जो **R Markdown** फाइलचे प्रतिनिधित्व करतो, जी सोप्या शब्दांत `code chunks` (R किंवा इतर भाषांमधील) आणि `YAML header` (जो PDF सारख्या आउटपुटचे स्वरूप कसे करायचे ते मार्गदर्शन करतो) यांचे `Markdown दस्तऐवज` मध्ये एम्बेडिंग आहे. म्हणून, हा डेटा सायन्ससाठी एक आदर्श लेखक फ्रेमवर्क म्हणून काम करतो कारण तो तुम्हाला तुमचा कोड, त्याचा आउटपुट आणि तुमच्या विचारांनाही Markdown मध्ये लिहून combination करण्याची परवानगी देतो. त्याचबरोबर, R Markdown दस्तऐवज PDF, HTML किंवा Word सारख्या आउटपुट स्वरुपांमध्ये प्रस्तुत केले जाऊ शकतात. -> **भाषांबद्दल एक नोट**: हे धडे मुख्यत्वे Python मध्ये लिहिलेले असतात, परंतु अनेक R मध्ये देखील उपलब्ध आहेत. R धडा पूर्ण करण्यासाठी, `/solution` फोल्डरमध्ये जा आणि R धडे शोधा. त्यात .rmd घटक असतो जो **R Markdown** फाइल दर्शवितो, ज्याचा अर्थ असा की तो `कोड चंक` (R किंवा इतर भाषांचा) आणि `YAML शीर्षलेख` (PDF सारख्या आउटपुट स्वरूपासाठी मार्गदर्शक) यांचे संयोजन आहे. म्हणून, तो डेटा सायन्ससाठी एक उत्कृष्ट लेखक फ्रेमवर्क आहे कारण त्यामध्ये तुम्ही तुमचा कोड, त्याचा आउटपुट, आणि तुमचे विचार Markdown मध्ये लिहू शकता. शिवाय, R Markdown दस्तऐवज PDF, HTML किंवा Word सारख्या आउटपुट स्वरूपात रेंडर करता येतात. -> **क्विझ बद्दल एक टीप**: सर्व क्विझ [Quiz App फोल्डरमध्ये](../../quiz-app) आहेत, ज्यात तीन प्रश्नांचे एकूण 52 क्विझ आहेत. हे धड्यांतील संदर्भातून लिंक केलेले आहेत परंतु क्विझ ऍप स्थानिक पातळीवर चालवता येते; स्थानिक होस्टिंग किंवा Azure वर तैनात करण्यासाठी `quiz-app` फोल्डरमधील सूचना पाळा. +> **क्विझेसबद्दल एक टीप**: सर्व क्विझेस [Quiz App फोल्डरमध्ये](../../quiz-app) आहेत, एकूण ५२ क्विझेस साठी प्रतेक मध्ये तीन प्रश्न आहेत. ते धड्यांमध्ये लिंक केलेले आहेत पण क्विझ ॲप स्थानिक पद्धतीने चालवू शकता; स्थानिक होस्टिंग किंवा Azure वर डिप्लॉय करण्यासाठी `quiz-app` फोल्डरमधील सूचना पाळा. | धडा क्रमांक | विषय | धडा गट | शिकण्याचे उद्दिष्टे | लिंक केलेला धडा | लेखक | -| :---------: | :------------------------------------------------------------: | :----------------------------------------: | ------------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------: | :------------------------------------------------: | -| 01 | मशीन लर्निंगची ओळख | [Introduction](1-Introduction/README.md) | मशीन लर्निंगच्या मूलभूत संकल्पना शिका | [Lesson](1-Introduction/1-intro-to-ML/README.md) | मुहम्मद | +| :---------: | :-----------------------------------------------------------: | :----------------------------------------: | ------------------------------------------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------: | :------------------------------------------------: | +| 01 | मशीन लर्निंगचे परिचय | [Introduction](1-Introduction/README.md) | मशीन लर्निंगच्या मूलभूत संकल्पना शिका | [Lesson](1-Introduction/1-intro-to-ML/README.md) | मुहम्मद | | 02 | मशीन लर्निंगचा इतिहास | [Introduction](1-Introduction/README.md) | या क्षेत्राचा इतिहास शिका | [Lesson](1-Introduction/2-history-of-ML/README.md) | जेन आणि एमी | -| 03 | निष्पक्षता आणि मशीन लर्निंग | [Introduction](1-Introduction/README.md) | निष्पक्षतेच्या महत्त्वाच्या तत्त्वज्ञानाच्या मुद्द्यांचा अभ्यास करा जे विद्यार्थी ML मॉडेल तयार करताना आणि लागू करताना लक्षात ठेवावेत | [Lesson](1-Introduction/3-fairness/README.md) | तोमोमी | -| 04 | मशीन लर्निंगसाठी तंत्रे | [Introduction](1-Introduction/README.md) | ML संशोधक कोणती तंत्रे वापरतात हे जाणून घ्या | [Lesson](1-Introduction/4-techniques-of-ML/README.md) | क्रिस आणि जेन | -| 05 | पुनरावृत्तीची ओळख | [Regression](2-Regression/README.md) | पुनरावृत्तीच्या मॉडेलसाठी Python आणि Scikit-learn वापरण्यास सुरुवात करा | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | जेन • एरिक वांजाऊ | -| 06 | उत्तर अमेरिकी भोपळ्याच्या किमती 🎃 | [Regression](2-Regression/README.md) | ML साठी डेटा दृश्यमान करा आणि स्वच्छ करा | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | जेन • एरिक वांजाऊ | -| 07 | उत्तर अमेरिकी भोपळ्याच्या किमती 🎃 | [Regression](2-Regression/README.md) | रैखिक आणि बहुपदी पुनरावृत्ती मॉडेल तयार करा | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | जेन आणि डिमित्रि • एरिक वांजाऊ | -| 08 | उत्तर अमेरिकी भोपळ्याच्या किमती 🎃 | [Regression](2-Regression/README.md) | लॉजिस्टिक पुनरावृत्ती मॉडेल तयार करा | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | जेन • एरिक वांजाऊ | -| 09 | वेब ऍप 🔌 | [Web App](3-Web-App/README.md) | आपल्या प्रशिक्षित मॉडेलचा वापर करण्यासाठी वेब ऍप तयार करा | [Python](3-Web-App/1-Web-App/README.md) | जेन | -| 10 | वर्गीकरणाची ओळख | [Classification](4-Classification/README.md) | आपल्या डेटाचे स्वच्छीकरण, तयारी आणि दृश्य रूपांतरण करा; वर्गीकरणाची ओळख | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | जेन आणि कॅसी • एरिक वांजाऊ | -| 11 | चवदार आशियाई आणि भारतीय जेवण 🍜 | [Classification](4-Classification/README.md) | वर्गीकरण करणाऱ्यांची ओळख | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | जेन आणि कॅसी • एरिक वांजाऊ | -| 12 | चवदार आशियाई आणि भारतीय जेवण 🍜 | [Classification](4-Classification/README.md) | अधिक वर्गीकरण करणारे | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | जेन आणि कॅसी • एरिक वांजाऊ | -| 13 | चवदार आशियाई आणि भारतीय जेवण 🍜 | [Classification](4-Classification/README.md) | आपला मॉडेल वापरून शिफारस करणारी वेब ऍप तयार करा | [Python](4-Classification/4-Applied/README.md) | जेन | -| 14 | क्लस्टरिंगची ओळख | [Clustering](5-Clustering/README.md) | आपल्या डेटाचे स्वच्छीकरण, तयारी आणि दृश्य रूपांतरण करा; क्लस्टरिंगची ओळख | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | जेन • एरिक वांजाऊ | -| 15 | नायजेरियन संगीत चवांची तपासणी 🎧 | [Clustering](5-Clustering/README.md) | K-Means क्लस्टरिंग पद्धत तपासा | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | जेन • एरिक वांजाऊ | -| 16 | नॅचरल लँग्वेज प्रोसेसिंगची ओळख ☕️ | [Natural language processing](6-NLP/README.md) | सोपा बॉट तयार करून NLP च्या मूलभूत गोष्टी शिका | [Python](6-NLP/1-Introduction-to-NLP/README.md) | स्टीफेन | -| 17 | कॉमन NLP कामे ☕️ | [Natural language processing](6-NLP/README.md) | भाषिक रचना हाताळताना लागणारी सामान्य कामे समजून NLP ज्ञान वाढवा | [Python](6-NLP/2-Tasks/README.md) | स्टीफेन | -| 18 | भाषांतर आणि भावना विश्लेषण ♥️ | [Natural language processing](6-NLP/README.md) | जेन ऑस्टीन सह भाषांतर आणि भावना विश्लेषण | [Python](6-NLP/3-Translation-Sentiment/README.md) | स्टीफेन | -| 19 | युरोपमधील रोमँटिक हॉटेल्स ♥️ | [Natural language processing](6-NLP/README.md) | हॉटेल पुनरावलोकनांसह भावना विश्लेषण 1 | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | स्टीफेन | -| 20 | युरोपमधील रोमँटिक हॉटेल्स ♥️ | [Natural language processing](6-NLP/README.md) | हॉटेल पुनरावलोकनांसह भावना विश्लेषण 2 | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | स्टीफेन | -| 21 | टाइम सिरीज भविष्यवाणीची ओळख | [Time series](7-TimeSeries/README.md) | टाइम सिरीज भविष्यवाणीची ओळख | [Python](7-TimeSeries/1-Introduction/README.md) | फ्रान्सेस्का | -| 22 | ⚡️ वर्ल्ड पॉवर युसेज ⚡️ - ARIMA सह टाइम सिरीज भविष्यवाणी | [Time series](7-TimeSeries/README.md) | ARIMA सह टाइम सिरीज भविष्यवाणी | [Python](7-TimeSeries/2-ARIMA/README.md) | फ्रान्सेस्का | -| 23 | ⚡️ वर्ल्ड पॉवर युसेज ⚡️ - SVR सह टाइम सिरीज भविष्यवाणी | [Time series](7-TimeSeries/README.md) | सपोर्ट व्हेक्टर रिग्रेशनर सह टाइम सिरीज भविष्यवाणी | [Python](7-TimeSeries/3-SVR/README.md) | अनिर्बान | -| 24 | रेन्फोर्समेंट लर्निंगची ओळख | [Reinforcement learning](8-Reinforcement/README.md) | Q-Learning सह रेन्फोर्समेंट लर्निंगची ओळख | [Python](8-Reinforcement/1-QLearning/README.md) | डिमित्रि | -| 25 | पीटरला लोमडीपासून वाचवा! 🐺 | [Reinforcement learning](8-Reinforcement/README.md) | रेन्फोर्समेंट लर्निंग जिम | [Python](8-Reinforcement/2-Gym/README.md) | डिमित्रि | -| पोस्टस्क्रिप्ट | वास्तविक जगातील ML परिस्थिती आणि अनुप्रयोग | [ML in the Wild](9-Real-World/README.md) | क्लासिकल ML चे मनोरंजक आणि उघड करणारे वास्तविक जगातील अनुप्रयोग | [Lesson](9-Real-World/1-Applications/README.md) | टीम | -| पोस्टस्क्रिप्ट | RAI डॅशबोर्ड वापरून ML मध्ये मॉडेल डीबगिंग | [ML in the Wild](9-Real-World/README.md) | जबाबदार AI डॅशबोर्ड कॉम्पोनेंटस वापरून मशीन लर्निंगमध्ये मॉडेल डीबगिंग | [Lesson](9-Real-World/2-Debugging-ML-Models/README.md) | रुथ याकुबू | - -> [या कोर्ससाठी सर्व अतिरिक्त साधने आमच्या Microsoft Learn संग्रहात शोधा](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) +| 03 | निष्पक्षता आणि मशीन लर्निंग | [Introduction](1-Introduction/README.md) | निष्पक्षतेशी संबंधित महत्त्वाचे तत्त्वज्ञानिक प्रश्न कोणते आहेत जे विद्यार्थ्यांनी ML मॉडेल तयार आणि लागू करताना विचारात घ्यावे? | [Lesson](1-Introduction/3-fairness/README.md) | टोमोमी | +| 04 | मशीन लर्निंगसाठी तंत्रे | [Introduction](1-Introduction/README.md) | मशीन लर्निंग संशोधक कुनि तंत्रांचा वापर करून ML मॉडेल तयार करतात? | [Lesson](1-Introduction/4-techniques-of-ML/README.md) | क्रिस आणि जेन | +| 05 | रिग्रेशनसाठी परिचय | [Regression](2-Regression/README.md) | रिग्रेशन मॉडेलसाठी Python आणि Scikit-learn सह सुरू करा | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | जेन • एरिक वान्जाऊ | +| 06 | नॉर्थ अमेरिकन भोपळ्याच्या किंमती 🎃 | [Regression](2-Regression/README.md) | मशीन लर्निंगसाठी डेटा व्हिज्युअलायझेशन आणि साफसफाई करा | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | जेन • एरिक वान्जाऊ | +| 07 | नॉर्थ अमेरिकन भोपळ्याच्या किंमती 🎃 | [Regression](2-Regression/README.md) | लिनीअर आणि बहुपद रिग्रेशन मॉडेल तयार करा | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | जेन आणि दिमित्री • एरिक वान्जाऊ | +| 08 | नॉर्थ अमेरिकन भोपळ्याच्या किंमती 🎃 | [Regression](2-Regression/README.md) | लॉजिस्टिक रिग्रेशन मॉडेल तयार करा | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | जेन • एरिक वान्जाऊ | +| 09 | वेब ॲप 🔌 | [Web App](3-Web-App/README.md) | तुमचा प्रशिक्षण घेतलेला मॉडेल वापरण्यासाठी वेब ॲप तयार करा | [Python](3-Web-App/1-Web-App/README.md) | जेन | +| 10 | वर्गीकरणाचे परिचय | [Classification](4-Classification/README.md) | तुमचा डेटा स्वच्छ, तयार आणि व्हिज्युअलाइझ करा; वर्गीकरणाचे परिचय | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | जेन आणि कॅसी • एरिक वान्जाऊ | +| 11 | स्वादिष्ट आशियाई आणि भारतीय जेवणं 🍜 | [Classification](4-Classification/README.md) | वर्गीकरण करणाऱ्यांचे परिचय | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | जेन आणि कॅसी • एरिक वान्जाऊ | +| 12 | स्वादिष्ट आशियाई आणि भारतीय जेवणं 🍜 | [Classification](4-Classification/README.md) | अधिक वर्गीकरण करणारे | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | जेन आणि कॅसी • एरिक वान्जाऊ | +| 13 | स्वादिष्ट आशियाई आणि भारतीय जेवणं 🍜 | [Classification](4-Classification/README.md) | तुमचा मॉडेल वापरून शिफारस करणारे वेब ॲप तयार करा | [Python](4-Classification/4-Applied/README.md) | जेन | +| 14 | क्लस्टरिंगचे परिचय | [Clustering](5-Clustering/README.md) | डेटा स्वच्छ, तयार आणि व्हिज्युअलाइझ करा; क्लस्टरिंगचे परिचय | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | जेन • एरिक वान्जाऊ | +| 15 | नायजेरियन संगीत आवड अन्वेषण 🎧 | [Clustering](5-Clustering/README.md) | K-मिन्स क्लस्टरिंग पद्धती अन्वेषण करा | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | जेन • एरिक वान्जाऊ | +| 16 | नैसर्गिक भाषा प्रक्रिया परिचय ☕️ | [Natural language processing](6-NLP/README.md) | सोपा बॉट तयार करून NLP ची मूलतत्त्वे शिका | [Python](6-NLP/1-Introduction-to-NLP/README.md) | स्टीफन | +| 17 | सामान्य NLP कार्य ☕️ | [Natural language processing](6-NLP/README.md) | भाषा रचनांशी काम करताना आवश्यक सामान्य कार्य समजून NLP माहिती सखोल करा | [Python](6-NLP/2-Tasks/README.md) | स्टीफन | +| 18 | भाषांतर आणि भावना विश्लेषण ♥️ | [Natural language processing](6-NLP/README.md) | जेन ऑस्टेनसह भाषांतर आणि भावना विश्लेषण | [Python](6-NLP/3-Translation-Sentiment/README.md) | स्टीफन | +| 19 | युरोपमधील रोमँटिक हॉटेल्स ♥️ | [Natural language processing](6-NLP/README.md) | हॉटेल पुनरावलोकनांसह भावना विश्लेषण 1 | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | स्टीफन | +| 20 | युरोपमधील रोमँटिक हॉटेल्स ♥️ | [Natural language processing](6-NLP/README.md) | हॉटेल पुनरावलोकनांसह भावना विश्लेषण 2 | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | स्टीफन | +| 21 | वेळ मालिका पूर्वानुमान परिचय | [Time series](7-TimeSeries/README.md) | वेळ मालिका पूर्वानुमान परिचय | [Python](7-TimeSeries/1-Introduction/README.md) | फ्रान्सेस्का | +| 22 | ⚡️ जागतिक वीज वापर ⚡️ - ARIMA सह वेळ मालिका पूर्वानुमान | [Time series](7-TimeSeries/README.md) | ARIMA सह वेळ मालिका पूर्वानुमान | [Python](7-TimeSeries/2-ARIMA/README.md) | फ्रान्सेस्का | +| 23 | ⚡️ जागतिक वीज वापर ⚡️ - SVR सह वेळ मालिका पूर्वानुमान | [Time series](7-TimeSeries/README.md) | समर्थन व्हेक्टर रिग्रेशनसह वेळ मालिका पूर्वानुमान | [Python](7-TimeSeries/3-SVR/README.md) | अनिर्बन | +| 24 | सुदृढीकरण शिक्षणाचे परिचय | [Reinforcement learning](8-Reinforcement/README.md) | Q-शिकण्यासह सुदृढीकरण शिक्षणाचे परिचय | [Python](8-Reinforcement/1-QLearning/README.md) | दिमित्री | +| 25 | पीटरला लांडग्यापासून वाचवा! 🐺 | [Reinforcement learning](8-Reinforcement/README.md) | सुदृढीकरण शिक्षण जिम | [Python](8-Reinforcement/2-Gym/README.md) | दिमित्री | +| पोस्टस्क्रिप्ट | खऱ्या जगातील ML परिस्थिती आणि अनुप्रयोग | [ML in the Wild](9-Real-World/README.md) | क्लासिक ML चे मनोरंजक आणि उलगडणारे खऱ्या जगातील अनुप्रयोग | [Lesson](9-Real-World/1-Applications/README.md) | टीम | +| पोस्टस्क्रिप्ट | RAI डॅशबोर्ड वापरून ML मध्ये मॉडेल डीबगिंग | [ML in the Wild](9-Real-World/README.md) | रिस्पॉन्सिबल AI डॅशबोर्ड कॉम्पोन्ट्स वापरून मशीन लर्निंगमध्ये मॉडेल डीबगिंग | [Lesson](9-Real-World/2-Debugging-ML-Models/README.md) | रूथ याकुबू | + +> [या अभ्यासक्रमासाठी सर्व अतिरिक्त संसाधने आमच्या Microsoft Learn संग्रहात शोधा](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) ## ऑफलाइन प्रवेश -[Docsify](https://docsify.js.org/#/) वापरून तुम्ही हा दस्तऐवज ऑफलाइन चालवू शकता. हा रेपो फोर्क करा, तुमच्या स्थानिक संगणकावर [Docsify इंस्टॉल करा](https://docsify.js.org/#/quickstart), आणि नंतर या रेपोच्या मुख्य फोल्डरमध्ये `docsify serve` टाइप करा. वेबसाईट तुमच्या लोकलहोस्टवर पोर्ट 3000 वर दिली जाईल: `localhost:3000`. +आपण हा दस्तऐवज [Docsify](https://docsify.js.org/#/) वापरून ऑफलाइन चालवू शकता. हा रेपो Fork करा, तुमच्या स्थानिक मशीनवर [Docsify इन्स्टॉल करा](https://docsify.js.org/#/quickstart), आणि नंतर या रेपोच्या रूट फोल्डरमध्ये `docsify serve` टाइप करा. वेबसाइट तुमच्या लोकलहोस्टवरील पोर्ट 3000 वर चालवली जाईल: `localhost:3000`. ## PDF -अभ्यासक्रमाचा पीडीएफ लिंकसह [येथे](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf) शोधा. +अभ्यासक्रमाचा PDF आवृत्ती आणि दुवे [येथे](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf) पाहा. -## 🎒 इतर कोर्सेस +## 🎒 इतर अभ्यासक्रम -आमची टीम इतर कोर्सेस तयार करते! तपासून पाहा: +आमची टीम इतर अभ्यासक्रम तयार करते! तपासा: ### LangChain @@ -180,7 +177,7 @@ Microsoft मधील Cloud Advocates या 12 आठवडे व 26 धड --- -### Generative AI Series +### जनरेटिव AI मालिका [![Generative AI for Beginners](https://img.shields.io/badge/Generative%20AI%20for%20Beginners-8B5CF6?style=for-the-badge&labelColor=E5E7EB&color=8B5CF6)](https://github.com/microsoft/generative-ai-for-beginners?WT.mc_id=academic-105485-koreyst) [![Generative AI (.NET)](https://img.shields.io/badge/Generative%20AI%20(.NET)-9333EA?style=for-the-badge&labelColor=E5E7EB&color=9333EA)](https://github.com/microsoft/Generative-AI-for-beginners-dotnet?WT.mc_id=academic-105485-koreyst) [![Generative AI (Java)](https://img.shields.io/badge/Generative%20AI%20(Java)-C084FC?style=for-the-badge&labelColor=E5E7EB&color=C084FC)](https://github.com/microsoft/generative-ai-for-beginners-java?WT.mc_id=academic-105485-koreyst) @@ -188,7 +185,7 @@ Microsoft मधील Cloud Advocates या 12 आठवडे व 26 धड --- -### कोर शिक्षण +### मुख्य शिक्षण [![ML for Beginners](https://img.shields.io/badge/ML%20for%20Beginners-22C55E?style=for-the-badge&labelColor=E5E7EB&color=22C55E)](https://aka.ms/ml-beginners?WT.mc_id=academic-105485-koreyst) [![Data Science for Beginners](https://img.shields.io/badge/Data%20Science%20for%20Beginners-84CC16?style=for-the-badge&labelColor=E5E7EB&color=84CC16)](https://aka.ms/datascience-beginners?WT.mc_id=academic-105485-koreyst) [![AI for Beginners](https://img.shields.io/badge/AI%20for%20Beginners-A3E635?style=for-the-badge&labelColor=E5E7EB&color=A3E635)](https://aka.ms/ai-beginners?WT.mc_id=academic-105485-koreyst) @@ -199,25 +196,30 @@ Microsoft मधील Cloud Advocates या 12 आठवडे व 26 धड --- -### कॉपिलॉट सिरीज +### Copilot मालिका [![Copilot for AI Paired Programming](https://img.shields.io/badge/Copilot%20for%20AI%20Paired%20Programming-FACC15?style=for-the-badge&labelColor=E5E7EB&color=FACC15)](https://aka.ms/GitHubCopilotAI?WT.mc_id=academic-105485-koreyst) [![Copilot for C#/.NET](https://img.shields.io/badge/Copilot%20for%20C%23/.NET-FBBF24?style=for-the-badge&labelColor=E5E7EB&color=FBBF24)](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers?WT.mc_id=academic-105485-koreyst) [![Copilot Adventure](https://img.shields.io/badge/Copilot%20Adventure-FDE68A?style=for-the-badge&labelColor=E5E7EB&color=FDE68A)](https://github.com/microsoft/CopilotAdventures?WT.mc_id=academic-105485-koreyst) -## मदतीसाठी संपर्क करा +## मदत मिळवणे -जर तुम्ही अडकला असाल किंवा AI अ‍ॅप्स तयार करताना काही प्रश्न असतील तर. इतर शिकणारे आणि अनुभवी विकसकांबरोबर MCP संदर्भातील चर्चा करा. ही एक सहायक समुदाय आहे जिथे प्रश्न विचारणे स्वागतार्ह आहे आणि ज्ञान मुक्तपणे सामायिक केले जाते. +जर तुम्ही अडकले आहात किंवा AI अ‍ॅप तयार करण्याबद्दल काही प्रश्न असतील तर MCP विषयी चर्चा करा. ही एक पाठबळ देणारी समुदाय आहे जिथे प्रश्न विचारले जातात आणि ज्ञान मुक्तपणे सामायिक केले जाते. [![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -मालमत्ता अभिप्राय किंवा तयार करताना त्रुटी असल्यास येथे भेट द्या: +जर तुम्हाला उत्पादनाबाबत अभिप्राय किंवा त्रुटी असतील तर येथे भेट द्या: [![Microsoft Foundry Developer Forum](https://img.shields.io/badge/GitHub-Microsoft_Foundry_Developer_Forum-blue?style=for-the-badge&logo=github&color=000000&logoColor=fff)](https://aka.ms/foundry/forum) +## अतिरिक्त शिक्षण टीप + +- प्रत्येक धड्यापूर्वी नोटबुक पुनरावलोकन करा जेणेकरून चांगल्या प्रकारे समजेल. +- स्वतःच अल्गोरिदम अमलात आणण्याचा सराव करा. +- शिकलेल्या संकल्पनांचा उपयोग करून खऱ्या जगातील डेटासेट एक्सप्लोर करा. --- **सूचना**: -हा दस्तऐवज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून अनुवादित केला आहे. आम्ही अचूकतेसाठी प्रयत्नशील आहोत, परंतु कृपया लक्षात घ्या की स्वयंचलित अनुवादांमध्ये चुका किंवा अचूकतेचा अभाव असू शकतो. मूळ दस्तऐवज त्याच्या मातृभाषेत अधिकृत स्रोत मानावा. महत्त्वाच्या माहितीसाठी व्यावसायिक मानवी अनुवाद सल्ला दिला आहे. या अनुवादामुळे उद्भवलेल्या कोणत्याही गैरसमजुतीस किंवा अर्थवर्धनासाठी आम्ही जबाबदार नाही. +हा दस्तऐवज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) वापरून अनुवादित केला आहे. आम्ही अचूकतेसाठी प्रयत्नशील आहोत, तरी कृपया ध्यानात घ्या की स्वयंचलित अनुवादांमध्ये चुका अथवा अचूकतेची कमतरता असू शकते. मूळ दस्तऐवज त्याच्या स्थानिक भाषेत अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीकरिता व्यावसायिक मानव अनुवाद शिफारसीय आहे. या अनुवादाचा उपयोग करून उद्भवलेल्या कोणत्याही गैरसमजूबाबत किंवा चुकीच्या अर्थपडताळीसाठी आम्ही जबाबदार नाही. \ No newline at end of file diff --git a/translations/ne/.co-op-translator.json b/translations/ne/.co-op-translator.json index 1017a690b..8e57de26a 100644 --- a/translations/ne/.co-op-translator.json +++ b/translations/ne/.co-op-translator.json @@ -30,8 +30,8 @@ "language_code": "ne" }, "1-Introduction/3-fairness/assignment.md": { - "original_hash": "dbda60e7b1fe5f18974e7858eff0004e", - "translation_date": "2025-08-29T17:34:40+00:00", + "original_hash": "c81d9affadb89d017d610eadeb6c84f9", + "translation_date": "2026-02-28T11:40:24+00:00", "source_file": "1-Introduction/3-fairness/assignment.md", "language_code": "ne" }, @@ -90,8 +90,8 @@ "language_code": "ne" }, "2-Regression/3-Linear/README.md": { - "original_hash": "40e64f004f3cb50aa1d8661672d3cd92", - "translation_date": "2025-09-06T06:25:04+00:00", + "original_hash": "9a8359f1945bd3beccccb2b46592580e", + "translation_date": "2026-02-28T11:41:29+00:00", "source_file": "2-Regression/3-Linear/README.md", "language_code": "ne" }, @@ -186,8 +186,8 @@ "language_code": "ne" }, "4-Classification/3-Classifiers-2/README.md": { - "original_hash": "49047911108adc49d605cddfb455749c", - "translation_date": "2025-09-06T06:37:39+00:00", + "original_hash": "d94438d71164b0ff68002812aed1a8b4", + "translation_date": "2026-02-28T11:41:50+00:00", "source_file": "4-Classification/3-Classifiers-2/README.md", "language_code": "ne" }, @@ -197,12 +197,24 @@ "source_file": "4-Classification/3-Classifiers-2/assignment.md", "language_code": "ne" }, + "4-Classification/3-Classifiers-2/notebook.ipynb": { + "original_hash": "624ca6cf73d3548ff1b3059e413fa4cd", + "translation_date": "2026-02-28T11:29:31+00:00", + "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", + "language_code": "ne" + }, "4-Classification/3-Classifiers-2/solution/Julia/README.md": { "original_hash": "a39c15d63f3b2795ee2284a82b986b93", "translation_date": "2025-08-29T17:56:54+00:00", "source_file": "4-Classification/3-Classifiers-2/solution/Julia/README.md", "language_code": "ne" }, + "4-Classification/3-Classifiers-2/solution/notebook.ipynb": { + "original_hash": "70f41fe4fd4253adb44cd9d291406e4f", + "translation_date": "2026-02-28T11:29:36+00:00", + "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", + "language_code": "ne" + }, "4-Classification/4-Applied/README.md": { "original_hash": "61bdec27ed2da8b098cd9065405d9bb0", "translation_date": "2025-09-06T06:37:11+00:00", @@ -540,8 +552,8 @@ "language_code": "ne" }, "README.md": { - "original_hash": "2f594ee136e3127a47f56d80055227bc", - "translation_date": "2026-02-06T08:01:26+00:00", + "original_hash": "3a0286e1c4858e79ff54f080dadc1426", + "translation_date": "2026-02-28T11:40:18+00:00", "source_file": "README.md", "language_code": "ne" }, diff --git a/translations/ne/1-Introduction/3-fairness/assignment.md b/translations/ne/1-Introduction/3-fairness/assignment.md index c5ec95ee7..d5fba2aa7 100644 --- a/translations/ne/1-Introduction/3-fairness/assignment.md +++ b/translations/ne/1-Introduction/3-fairness/assignment.md @@ -1,16 +1,18 @@ -# जिम्मेवार AI टूलबक्स अन्वेषण गर्नुहोस् +# जिम्मेवार AI उपकरणपेटी अन्वेषण गर्नुहोस् -## निर्देशनहरू +## निर्देशहरू -यस पाठमा, तपाईंले जिम्मेवार AI टूलबक्सको बारेमा सिक्नुभयो, जुन "डाटा वैज्ञानिकहरूलाई AI प्रणालीहरू विश्लेषण गर्न र सुधार गर्न मद्दत गर्ने खुला स्रोत, समुदाय-चालित परियोजना" हो। यस असाइनमेन्टको लागि, RAI टूलबक्सको [नोटबुकहरू](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/getting-started.ipynb) मध्ये एक अन्वेषण गर्नुहोस् र आफ्नो निष्कर्षहरू कागज वा प्रस्तुतीकरणमा रिपोर्ट गर्नुहोस्। +यस पाठमा तपाईंले जिम्मेवार AI उपकरणपेटीको बारेमा सिक्नुभयो, जुन "डाटा वैज्ञानिकहरूलाई AI प्रणालीहरूको विश्लेषण र सुधार गर्न सहयोग गर्ने एक खुला-स्रोत, समुदाय-चालित परियोजना" हो। यस असाइनमेन्टको लागि, RAI उपकरणपेटीका एक [नोटबुक](https://github.com/microsoft/responsible-ai-toolbox/blob/main/notebooks/responsibleaidashboard/tabular/getting-started.ipynb) अन्वेषण गर्नुहोस् र पत्ता लागेको कुरा कागज वा प्रस्तुतीकरणमा रिपोर्ट गर्नुहोस्। -## मूल्यांकन मापदण्ड +## मूल्याङ्कन मापदण्ड | मापदण्ड | उत्कृष्ट | पर्याप्त | सुधार आवश्यक | | -------- | --------- | -------- | ----------------- | -| | एक कागज वा पावरप्वाइन्ट प्रस्तुतीकरण प्रस्तुत गरिएको छ जसले Fairlearn का प्रणालीहरू, चलाइएको नोटबुक, र त्यसबाट निकालिएका निष्कर्षहरू छलफल गर्दछ | निष्कर्ष बिना कागज प्रस्तुत गरिएको छ | कुनै कागज प्रस्तुत गरिएको छैन | +| | फेयरलर्नका प्रणालीहरू, चलाइएको नोटबुक, र त्यसबाट निकालेका निष्कर्षहरूबारे छलफल गर्ने कागज वा पावरपोइन्ट प्रस्तुतीकरण प्रस्तुत गरिएको छ | निष्कर्षबिनाको कागज प्रस्तुत गरिएको छ | कुनै कागज प्रस्तुत गरिएको छैन | --- -**अस्वीकरण**: -यो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको छ। हामी शुद्धताको लागि प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादमा त्रुटिहरू वा अशुद्धताहरू हुन सक्छ। यसको मूल भाषा मा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्वपूर्ण जानकारीको लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार हुने छैनौं। \ No newline at end of file + +**अस्वीकारोक्ति**: +यो कागजात AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको हो। हामी शुद्धताका लागि प्रयासरत छौं भने पनि, कृपया जानकारी राख्नुहोस् कि स्वचालित अनुवादमा त्रुटि वा अशुद्धता हुनसक्छ। मूल कागजात यसको मातृ भाषामा आधिकारिक स्रोतको रूपमा मानिनुपर्छ। महत्वपूर्ण जानकारीका लागि व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट हुने कुनै पनि गलत बुझाइ वा गलत व्याख्याप्रति हामी जिम्मेवार हौंन। + \ No newline at end of file diff --git a/translations/ne/2-Regression/3-Linear/README.md b/translations/ne/2-Regression/3-Linear/README.md index 54ad28d6b..33958aacf 100644 --- a/translations/ne/2-Regression/3-Linear/README.md +++ b/translations/ne/2-Regression/3-Linear/README.md @@ -1,124 +1,137 @@ -# Scikit-learn प्रयोग गरेर रिग्रेशन मोडेल बनाउने: चार तरिकामा रिग्रेशन +# स्कikit-learn प्रयोग गरेर एक Regression मोडेल निर्माण गर्नुहोस्: regression चार तरिकाहरू -![रेखीय बनाम बहुपद रिग्रेशन इन्फोग्राफिक](../../../../2-Regression/3-Linear/images/linear-polynomial.png) -> इन्फोग्राफिक: [Dasani Madipalli](https://twitter.com/dasani_decoded) +## शुरुवाती नोट + +Linear regression तब प्रयोग गरिन्छ जब हामी **सङ्ख्यात्मक मान** (उदाहरणका लागि, घरको मूल्य, तापक्रम, वा बिक्री) भविष्यवाणी गर्न चाहन्छौं। +यो इनपुट सुविधाहरू र आउटपुट बिचको सम्बन्धलाई सबैभन्दा राम्रो प्रतिनिधित्व गर्ने एक सिधा रेखा खोजेर काम गर्छ। + +यस पाठमा, हामी अधिक उन्नत regression प्रविधिहरूको अन्वेषण गर्नु अघि अवधारणा बुझ्नमा केन्द्रित छौं। +![Linear vs polynomial regression infographic](../../../../translated_images/ne/linear-polynomial.5523c7cb6576ccab.webp) +> इन्फोग्राफिक द्वारा [दासानी माडीपाली](https://twitter.com/dasani_decoded) ## [पाठ अघि क्विज](https://ff-quizzes.netlify.app/en/ml/) > ### [यो पाठ R मा उपलब्ध छ!](../../../../2-Regression/3-Linear/solution/R/lesson_3.html) ### परिचय -अहिलेसम्म तपाईंले रिग्रेशन के हो भनेर बुझ्न कद्दूको मूल्य निर्धारण डेटासेटको नमूना डाटाको साथ अन्वेषण गर्नुभएको छ, जुन हामीले यस पाठभरि प्रयोग गर्नेछौं। तपाईंले यसलाई Matplotlib प्रयोग गरेर दृश्यात्मक रूपमा पनि हेर्नुभएको छ। +अहिले सम्म तपाईंले regression के हो भनी बुझ्नुभयो, विभिन्न नमुना डेटा संग जुन हामीले यो पाठमा प्रयोग गरेका छौं। तपाईंले यसलाई Matplotlib प्रयोग गरी दृश्यमान पनि बनाउनु भएको छ। -अब तपाईं ML को लागि रिग्रेशनमा गहिरो रूपमा जान तयार हुनुहुन्छ। दृश्यात्मकता डाटालाई बुझ्न मद्दत गर्दछ, तर मेसिन लर्निङको वास्तविक शक्ति _मोडेल प्रशिक्षण_ बाट आउँछ। मोडेलहरू ऐतिहासिक डाटामा प्रशिक्षित गरिन्छन् ताकि डाटाको निर्भरता स्वचालित रूपमा समात्न सकियोस्, र तिनीहरूले नयाँ डाटाको लागि परिणामहरू भविष्यवाणी गर्न अनुमति दिन्छन्, जुन मोडेलले पहिले देखेको छैन। +अब तपाईं ML का लागि regression मा अझ गहिरो रूपमा जान तयार हुनुहुन्छ। जबकि दृश्यले डेटा बुझ्न मद्दत गर्दछ, मशीन लर्निङको वास्तविक शक्ति _मोडेलहरू तालिम_ मा हुन्छ। मोडेलहरू इतिहासगत डाटामा तालिम दिइन्छ ताकि स्वतः डेटा निर्भरतालाई समातोस, र तपाईंलाई नयाँ डाटाका लागि भविष्यवाणी गर्न दिन्छन्, जुन मोडेलले पहिले देखेको छैन। -यस पाठमा, तपाईं दुई प्रकारका रिग्रेशनबारे थप जान्नेछ: _साधारण रेखीय रिग्रेशन_ र _बहुपद रिग्रेशन_, साथै यी प्रविधिहरूको आधारभूत गणित। यी मोडेलहरूले हामीलाई विभिन्न इनपुट डाटाको आधारमा कद्दूको मूल्य भविष्यवाणी गर्न अनुमति दिनेछन्। +यस पाठमा, तपाईं दुई प्रकारका regression बारे थप जान्नुहुनेछ: _आधारभूत linear regression_ र _polynomial regression_, साथै यी प्रविधिहरूको पृष्ठभूमिमा रहेको केही गणित। ती मोडेलहरूले हामीलाई विभिन्न इनपुट डाटामा आधारित कद्दुखुराको मूल्य भविष्यवाणी गर्न मद्दत गर्नेछन्। -[![मेसिन लर्निङका लागि शुरुआती - रेखीय रिग्रेशन बुझ्दै](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "मेसिन लर्निङका लागि शुरुआती - रेखीय रिग्रेशन बुझ्दै") +[![ML for beginners - Understanding Linear Regression](https://img.youtube.com/vi/CRxFT8oTDMg/0.jpg)](https://youtu.be/CRxFT8oTDMg "ML for beginners - Understanding Linear Regression") -> 🎥 माथिको छवि क्लिक गरेर रेखीय रिग्रेशनको छोटो भिडियो अवलोकन हेर्नुहोस्। +> 🎥 माथिको छविमा क्लिक गर्नुहोस् linear regression को छोटो भिडियो अवलोकनका लागि। -> यस पाठ्यक्रमभरि, हामी न्यूनतम गणितीय ज्ञानलाई मान्यता दिन्छौं, र अन्य क्षेत्रबाट आएका विद्यार्थीहरूको लागि यसलाई पहुँचयोग्य बनाउन प्रयास गर्छौं। नोटहरू, 🧮 गणितीय संकेतहरू, रेखाचित्रहरू, र अन्य सिकाइ उपकरणहरूको लागि ध्यान दिनुहोस्। +> यस पाठ्यक्रमले न्यूनतम गणितीय ज्ञान मानिन्छ, र अन्य क्षेत्रका विद्यार्थीहरूको पहुँचयोग्य बनाउन टिप, 🧮 कलआउट, आरेख, र अन्य सिकाइ उपकरणहरू देखिन्छन्। -### पूर्वआवश्यकता +### पूर्वशर्त -तपाईंले अहिले सम्म कद्दूको डाटाको संरचनासँग परिचित हुनुहुन्छ जुन हामी अध्ययन गर्दैछौं। यो पाठको _notebook.ipynb_ फाइलमा पूर्वलोड गरिएको र सफा गरिएको छ। फाइलमा, कद्दूको मूल्य प्रति बुशल नयाँ डाटाफ्रेममा देखाइएको छ। सुनिश्चित गर्नुहोस् कि तपाईं यी नोटबुकहरू Visual Studio Code मा चलाउन सक्नुहुन्छ। +आफूले अहिले सम्म हेरेको कद्दुखुराको डेटा संरचनासँग परिचित हुनुहुन्छ। यो पाठसँग सम्बद्ध _notebook.ipynb_ फाइलमा पूर्वलोड र पूर्वसफा गरिएको छ। फाइलमा, कद्दुखुराको मूल्य प्रति बुसल नयाँ डेटा फ्रेममा देखाइएको छ। सुनिश्चित गर्नुहोस् कि तपाईंले यी नोटबुकहरू Visual Studio Code को कर्नलहरूमा चलाउन सक्नुहुन्छ। ### तयारी -याद दिलाउनका लागि, तपाईं यो डाटा लोड गर्दै हुनुहुन्छ ताकि यसबाट प्रश्न सोध्न सकियोस्। +एक सम्झना स्वरुप, तपाईं यो डेटा प्रयोग गरेर यसबारे प्रश्नहरू सोध्न लाग्नुभएको छ। + +- कद्दुखुरा कहिले खरीद गर्नु उपयुक्त हुन्छ? +- मिनिएचर कद्दुखुराहरूको केसको मूल्य कति अपेक्षा गर्न सकिन्छ? +- के म तिनीहरू आधा-बुसल बास्केटमा किन्ने कि 1 1/9 बुसल बाकसमा? + +यस डेटा बुझ्न जारी राखौं। + +अघिल्लो पाठमा, तपाईंले Pandas डेटा फ्रेम सिर्जना गरी मूल dataset को केही भाग भर्नुभयो र मूल्य बुसल द्वारा मानकीकृत गर्नुभयो। त्यसरी तपाईंले लगभग ४०० डेटाप्वाइन्ट मात्र जम्मा गर्न सक्नुभयो र ती पनि सिर्फ पतझड महिनाका लागि मात्र। -- कद्दू किन्ने उत्तम समय कहिले हो? -- सानो कद्दूको केसको मूल्य कति अपेक्षा गर्न सकिन्छ? -- म तिनीहरूलाई आधा-बुशल टोकरीमा किन्ने कि 1 1/9 बुशल बक्समा? -आउनुहोस्, यस डाटामा अझै गहिरो अध्ययन गरौं। +यस पाठसँग सम्बद्ध नोटबुकमा पूर्वलोड गरिएको डेटा हेर्नुहोस्। डेटा पूर्वलोड गरिएको छ र प्रारम्भिक scatterplot ले महिनाको डेटा देखाउँछ। सायद डेटा सफा गरेर यसको प्रकृति बारे थप विवरण प्राप्त गर्न सकिन्छ। -पछिल्लो पाठमा, तपाईंले Pandas डाटाफ्रेम सिर्जना गर्नुभयो र मूल डेटासेटको भागसँग यसलाई भर्नुभयो, बुशलद्वारा मूल्यलाई मानकीकरण गर्दै। तर, त्यसो गर्दा, तपाईंले केवल लगभग 400 डाटाप्वाइन्टहरू मात्र संकलन गर्न सक्नुभयो र केवल शरद ऋतु महिनाहरूको लागि। +## एक linear regression रेखा -यस पाठको साथमा रहेको नोटबुकमा पूर्वलोड गरिएको डाटालाई हेर्नुहोस्। डाटा पूर्वलोड गरिएको छ र प्रारम्भिक स्क्याटरप्लट चार्ट गरिएको छ ताकि महिनाको डाटा देखाउन सकियोस्। सायद हामी यस डाटाको प्रकृतिबारे अझै धेरै विवरण प्राप्त गर्न सक्छौं यदि यसलाई अझ सफा गरियो भने। +पाठ १ मा सिकेझैं, linear regression अभ्यासको लक्ष्य रेखा प्लट गर्न सक्षम हुनु हो जसले: -## रेखीय रिग्रेशन रेखा +- **चल भेरियबल सम्बन्ध देखाउने**। भेरियबलहरूको सम्बन्ध देखाउने +- **भविष्यवाणी गर्ने**। नयाँ डेटाप्वाइन्ट त्यो रेखाप्रति कहाँ पर्नेछ भन्ने सही भविष्यवाणी गर्ने। -Lesson 1 मा तपाईंले सिक्नुभएको अनुसार, रेखीय रिग्रेशन अभ्यासको लक्ष्य एउटा रेखा प्लट गर्न सक्षम हुनु हो: +सामान्यतया **Least-Squares Regression** यस्तो प्रकारको रेखा तान्न प्रयोग हुन्छ। "Least-Squares" शब्दले मोडेलको कुल त्रुटि कम गर्न प्रक्रियालाई जनाउँछ। प्रत्येक डेटाप्वाइन्टको लागि, हामी वास्तविक बिन्दु र regression लाइन बीचको ठाडो दूरी (residual भनिन्छ) मापन गर्छौं। -- **चरहरूको सम्बन्ध देखाउनुहोस्**। चरहरू बीचको सम्बन्ध देखाउनुहोस् -- **भविष्यवाणी गर्नुहोस्**। नयाँ डाटाप्वाइन्ट उक्त रेखासँगको सम्बन्धमा कहाँ पर्नेछ भन्ने सटीक भविष्यवाणी गर्नुहोस्। - -यो **Least-Squares Regression** को लागि सामान्य हो कि यस प्रकारको रेखा कोरियोस्। 'least-squares' शब्दको अर्थ हो कि रिग्रेशन रेखाको वरिपरिका सबै डाटाप्वाइन्टहरू वर्गाकार गरिन्छ र त्यसपछि जोडिन्छ। आदर्श रूपमा, अन्तिम योग यथासम्भव सानो हुनुपर्छ, किनभने हामी कम त्रुटिहरू, वा `least-squares` चाहन्छौं। +हामी यी दूरीहरूलाई दुई कारणले वर्ग गर्नछौं: -हामी यसो गर्छौं किनभने हामी चाहन्छौं कि हाम्रो सबै डाटाप्वाइन्टहरूको सँग्लित दूरी कम भएको मोडेल बनोस्। हामीले तिनीहरूलाई वर्गाकार गरेर जोड्छौं किनभने हामी यसको परिमाणमा चासो राख्छौं, यसको दिशा होइन। +1. **दिशा भन्दा परिमाणलाई महत्व दिनु:** -५ को गल्तीलाई +५ को गल्ती जस्तै व्यवहार गर्न चाहन्छौं। वर्ग गर्दा सबै मानहरू सकरात्मक हुन्छन्। -> **🧮 गणित देखाउनुहोस्** -> -> यो रेखा, जसलाई _सबैभन्दा राम्रो फिटको रेखा_ भनिन्छ, [एक समीकरण](https://en.wikipedia.org/wiki/Simple_linear_regression) द्वारा व्यक्त गर्न सकिन्छ: -> +2. **अत्यधिक भिन्नतालाई दण्डित गर्नु:** वर्ग गर्दा ठूलो त्रुटिहरू बढि तौल पाउँछन्, जसले रेखालाई टाढा रहेका बिन्दुहरू नजिक राख्न बाध्य पार्छ। + +त्यसपछि यी सबै वर्ग मानहरू जोडिन्छन्। हाम्रो लक्ष्य यो रेखा पत्ता लगाउनु हो जहाँ यो अन्तिम योग सबैभन्दा कम हुन्छ—त्यसैले "Least-Squares" को नाम। + +> **🧮 मलाई गणित देखाऊ** +> +> यस रेखालाई, जसलाई _line of best fit_ भनिन्छ, [एक समीकरण](https://en.wikipedia.org/wiki/Simple_linear_regression) द्वारा व्यक्त गर्न सकिन्छ: +> > ``` > Y = a + bX > ``` > -> `X` 'व्याख्यात्मक चर' हो। `Y` 'निर्भर चर' हो। रेखाको ढलान `b` हो र `a` y-अवरोध हो, जसले `X = 0` हुँदा `Y` को मानलाई जनाउँछ। +> `X` 'व्याख्यात्मक भेरियबल' हो। `Y` 'आश्रित भेरियबल' हो। रेखाको ढलान `b` हो र `a` y-intercept हो, जुन `X = 0` हुँदा `Y` को मान हो। > ->![ढलान गणना गर्नुहोस्](../../../../2-Regression/3-Linear/images/slope.png) +>![ढलान गणना](../../../../translated_images/ne/slope.f3c9d5910ddbfcf9.webp) > -> पहिलो, ढलान `b` गणना गर्नुहोस्। इन्फोग्राफिक: [Jen Looper](https://twitter.com/jenlooper) +> पहिलो, ढलान `b` गणना गर्नुहोस्। इन्फोग्राफिक [जेन लूपर](https://twitter.com/jenlooper) द्वारा > -> अर्को शब्दमा, र हाम्रो कद्दू डाटाको मूल प्रश्नलाई सन्दर्भ गर्दै: "महिनाद्वारा प्रति बुशल कद्दूको मूल्य भविष्यवाणी गर्नुहोस्", `X` मूल्यलाई जनाउँछ र `Y` बिक्रीको महिनालाई जनाउँछ। +> अर्को शब्दमा, हाम्रो कद्दुखुराको डाटाबाट प्रश्न गर्दा: "महिना अनुसार प्रति बुसल कद्दुखुराको मूल्यको भविष्यवाणी", `X` मूल्य जनाउँछ र `Y` बिक्री महिना जनाउँछ। > ->![समीकरण पूरा गर्नुहोस्](../../../../2-Regression/3-Linear/images/calculation.png) +>![समीकरण पुरा गर्नुहोस्](../../../../translated_images/ne/calculation.a209813050a1ddb1.webp) > -> `Y` को मान गणना गर्नुहोस्। यदि तपाईं लगभग $4 तिर्दै हुनुहुन्छ भने, यो अप्रिल हुनुपर्छ! इन्फोग्राफिक: [Jen Looper](https://twitter.com/jenlooper) +> Y को मान गणना गर्नुहोस्। यदि तपाईं लगभग $४ तिर्दै हुनुहुन्छ भने त्यो अप्रिल हुनुपर्छ! इन्फोग्राफिक [जेन लूपर](https://twitter.com/jenlooper) द्वारा > -> रेखाको ढलान गणना गर्ने गणित, जुन अवरोधमा पनि निर्भर गर्दछ, `X = 0` हुँदा `Y` कहाँ स्थित छ भनेर देखाउनुपर्छ। +> गणितले रेखाको ढलान प्रदर्शन गर्नुपर्छ, जुन सँग intercept लाई पनि निर्भर गर्दछ, जहाँ `X = 0` हुँदा `Y` कहाँ हुन्छ। > -> तपाईंले यी मानहरूको गणना गर्ने विधि [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) वेबसाइटमा अवलोकन गर्न सक्नुहुन्छ। [यो Least-squares calculator](https://www.mathsisfun.com/data/least-squares-calculator.html) पनि भ्रमण गर्नुहोस् ताकि संख्याहरूको मानले रेखालाई कसरी प्रभाव पार्छ हेर्न सकियोस्। +> यी मानहरूको गणना विधि तपाईंले [Math is Fun](https://www.mathsisfun.com/data/least-squares-regression.html) वेब साइटमा देख्न सक्नुहुन्छ। यो [Least-squares गणक](https://www.mathsisfun.com/data/least-squares-calculator.html) मा पनि हेर्नुहोस् जसले सङ्ख्याहरूको मानले रेखामा कसरी प्रभाव पार्छ। -## सम्बन्ध +## सहसंबन्ध -अर्को शब्द बुझ्नुपर्ने भनेको **Correlation Coefficient** हो, जुन दिइएको X र Y चरहरू बीचको सम्बन्ध हो। स्क्याटरप्लट प्रयोग गरेर, तपाईंले यो गुणांकलाई छिटो दृश्यात्मक रूपमा हेर्न सक्नुहुन्छ। यदि प्लटमा डाटाप्वाइन्टहरू एक सुन्दर रेखामा फैलिएका छन् भने उच्च सम्बन्ध हुन्छ, तर यदि प्लटमा डाटाप्वाइन्टहरू X र Y बीचमा जताततै फैलिएका छन् भने कम सम्बन्ध हुन्छ। +अझ एक पद बुझ्नुपर्छ जुन हो **सहसंबन्ध गुणांक** दिने X र Y भेरियबलहरू बीच। scatterplot प्रयोग गरेर तपाईं यस गुणांकलाई छिटो देख्न सक्नुहुन्छ। डेटाप्वाइन्टहरू राम्रोसँग रेखामा छरिएका छन् भने उच्च सहसंबन्ध हुन्छ, तर यदि डेटाप्वाइन्टहरू X र Y बीच जहाँसुकै छरिएका छन् भने कम सहसंबन्ध हुन्छ। -एक राम्रो रेखीय रिग्रेशन मोडेल भनेको उच्च (1 नजिक, 0 भन्दा टाढा) सम्बन्ध गुणांक भएको मोडेल हो, Least-Squares Regression विधि प्रयोग गरेर रिग्रेशन रेखासँग। +एक राम्रो linear regression मोडेल त्यसले हुनेछ जसको सहसंबन्ध गुणांक उच्च (0 भन्दा निकट 1) हुनेछ र Least-Squares Regression विधि प्रयोग गरी regression लाइन हुनेछ। -✅ यस पाठसँगको नोटबुक चलाउनुहोस् र महिना र मूल्यको स्क्याटरप्लट हेर्नुहोस्। कद्दू बिक्रीको लागि महिना र मूल्यको डाटा स्क्याटरप्लटको दृश्यात्मक व्याख्याको आधारमा उच्च वा कम सम्बन्ध देखिन्छ? यदि तपाईं `महिना` को सट्टा *वर्षको दिन* (जस्तै, वर्षको सुरुबाट दिनहरूको संख्या) प्रयोग गर्नुहुन्छ भने के यो परिवर्तन हुन्छ? +✅ यस पाठसँग सम्बद्ध नोटबुक सञ्चालन गरी महिना र मूल्य बीच scatterplot हेर्नुहोस्। कद्दुखुरा बिक्रीका लागि महिना र मूल्यको सम्बन्ध तपाईंको scatterplot दृश्य व्याख्याअनुसार उच्च वा न्यून सहसंबन्ध देखाउँछ? यदि तपाईं `महिना` सट्टा *वर्षको दिन* (जस्तै वर्षको शुरुदेखि दिनहरूको संख्या) जस्ता थप सूक्ष्म मापन प्रयोग गर्नु भयो भने के त्यो परिवर्तन हुन्छ? -तलको कोडमा, हामी मान्छौं कि हामीले डाटालाई सफा गरिसकेका छौं, र `new_pumpkins` नामक डाटाफ्रेम प्राप्त गरेका छौं, निम्नानुसार: +तलको कोडमा, हामीले डेटा सफा गरेको र `new_pumpkins` नामक डेटा फ्रेम प्राप्त गरेको मान्दैछौं, जस्तै: -ID | महिना | वर्षको दिन | प्रकार | सहर | प्याकेज | न्यूनतम मूल्य | उच्चतम मूल्य | मूल्य ----|-------|-----------|---------|------|---------|-----------|------------|------- -70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 बुशल कार्टन | 15.0 | 15.0 | 13.636364 -71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 बुशल कार्टन | 18.0 | 18.0 | 16.363636 -72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 बुशल कार्टन | 18.0 | 18.0 | 16.363636 -73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 बुशल कार्टन | 17.0 | 17.0 | 15.454545 -74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 बुशल कार्टन | 15.0 | 15.0 | 13.636364 +ID | महिना | वर्षको_दिन | भेराइटी | सहर | प्याकेज | न्यून मूल्य | उच्च मूल्य | मूल्य +---|-------|------------|---------|------|---------|------------|------------|------- +70 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 बुसल कार्टन | 15.0 | 15.0 | 13.636364 +71 | 9 | 267 | PIE TYPE | BALTIMORE | 1 1/9 बुसल कार्टन | 18.0 | 18.0 | 16.363636 +72 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 बुसल कार्टन | 18.0 | 18.0 | 16.363636 +73 | 10 | 274 | PIE TYPE | BALTIMORE | 1 1/9 बुसल कार्टन | 17.0 | 17.0 | 15.454545 +74 | 10 | 281 | PIE TYPE | BALTIMORE | 1 1/9 बुसल कार्टन | 15.0 | 15.0 | 13.636364 -> डाटा सफा गर्ने कोड [`notebook.ipynb`](../../../../2-Regression/3-Linear/notebook.ipynb) मा उपलब्ध छ। हामीले अघिल्लो पाठमा जस्तै सफा गर्ने चरणहरू पूरा गरेका छौं, र निम्न अभिव्यक्तिको प्रयोग गरेर `DayOfYear` स्तम्भ गणना गरेका छौं: +> डेटा सफा गर्नको लागि कोड [`notebook.ipynb`](notebook.ipynb) मा उपलब्ध छ। हामीले अघिल्लो पाठजस्तै सफाइ क्रियाकलापहरू गर्यौं र `DayOfYear` स्तम्भ तलको अभिव्यक्ति प्रयोग गरेर गणना गर्यौं: ```python day_of_year = pd.to_datetime(pumpkins['Date']).apply(lambda dt: (dt-datetime(dt.year,1,1)).days) ``` -अब तपाईंले रेखीय रिग्रेशनको गणितको समझ पाउनुभएको छ, आउनुहोस् रिग्रेशन मोडेल बनाऔं ताकि हामी भविष्यवाणी गर्न सकौं कि कद्दूको प्याकेजको मूल्य कुनमा सबैभन्दा राम्रो हुनेछ। छुट्टीको कद्दूको बगैंचाको लागि कद्दू किन्ने कोहीले कद्दू प्याकेजहरूको खरीदलाई अनुकूलित गर्न यो जानकारी चाहन सक्छ। +अब तपाईंले linear regression पछाडिको गणित बुझ्नुभयो, आउनुहोस् Regression मोडेल बनाउँछौं जसले कुन कद्दुखुराको प्याकेजमा उत्तम मूल्य आउनेछ भनी भविष्यवाणी गर्न सकोस्। कोई पनि व्यक्ति जसले पर्व कद्दुखुरा खेतीका लागि किन्नेछ, यो जानकारी उपयोगी हुनेछ। -## सम्बन्ध खोज्दै +## सहसंबन्ध खोज्दै -[![मेसिन लर्निङका लागि शुरुआती - सम्बन्ध खोज्दै: रेखीय रिग्रेशनको कुञ्जी](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "मेसिन लर्निङका लागि शुरुआती - सम्बन्ध खोज्दै: रेखीय रिग्रेशनको कुञ्जी") +[![ML for beginners - Looking for Correlation: The Key to Linear Regression](https://img.youtube.com/vi/uoRq-lW2eQo/0.jpg)](https://youtu.be/uoRq-lW2eQo "ML for beginners - Looking for Correlation: The Key to Linear Regression") -> 🎥 माथिको छवि क्लिक गरेर सम्बन्धको छोटो भिडियो अवलोकन हेर्नुहोस्। +> 🎥 माथिको छविमा क्लिक गर्नुहोस् सहसंबन्धको छोटो भिडियो अवलोकनका लागि। -पछिल्लो पाठबाट तपाईंले सम्भवतः देख्नुभएको छ कि विभिन्न महिनाहरूको लागि औसत मूल्य यस प्रकार देखिन्छ: +अघिल्लो पाठबाट तपाईंले देख्नुभएको होला कि विभिन्न महिनाहरुको औसत मूल्य यसप्रकार देखिन्छ: -महिनाद्वारा औसत मूल्य +Average price by month -यसले सुझाव दिन्छ कि केही सम्बन्ध हुनुपर्छ, र हामी `महिना` र `मूल्य` बीचको सम्बन्ध भविष्यवाणी गर्न, वा `DayOfYear` र `मूल्य` बीचको सम्बन्ध भविष्यवाणी गर्न रेखीय रिग्रेशन मोडेल प्रशिक्षण गर्न प्रयास गर्न सक्छौं। यहाँ स्क्याटरप्लट छ जसले पछिल्लो सम्बन्ध देखाउँछ: +यसले केही सहसंबन्ध हुनुपर्छ भन्ने संकेत गर्दछ, र हामी `Month` र `Price`, वा `DayOfYear` र `Price` बीचको सम्बन्ध पूर्वानुमान गर्न linear regression मोडेल तालिम दिन सक्दछौं। तल scatter plot ले पछिल्लो सम्बन्ध देखाउँछ: -मूल्य बनाम वर्षको दिनको स्क्याटरप्लट +Scatter plot of Price vs. Day of Year -आउनुहोस् `corr` फंक्शन प्रयोग गरेर सम्बन्ध छ कि छैन हेर्नुहोस्: +अब `corr` फंक्शन प्रयोग गरेर सहसंबन्ध छ कि छैन जाँचौं: ```python print(new_pumpkins['Month'].corr(new_pumpkins['Price'])) print(new_pumpkins['DayOfYear'].corr(new_pumpkins['Price'])) ``` -यो देखिन्छ कि सम्बन्ध धेरै सानो छ, `महिना` द्वारा -0.15 र `DayOfMonth` द्वारा -0.17, तर अर्को महत्त्वपूर्ण सम्बन्ध हुन सक्छ। यस्तो देखिन्छ कि विभिन्न कद्दू प्रकारहरूका लागि मूल्यका विभिन्न समूहहरू छन्। यस परिकल्पनालाई पुष्टि गर्न, आउनुहोस् प्रत्येक कद्दूको प्रकारलाई फरक रंगमा प्लट गरौं। `scatter` प्लटिङ फंक्शनमा `ax` प्यारामिटर पास गरेर हामी सबै बिन्दुहरू एउटै ग्राफमा प्लट गर्न सक्छौं: +सहसंबन्ध धेरै कम देखिन्छ, -0.15 `Month` द्वारा र -0.17 `DayOfMonth` द्वारा, तर अर्को महत्त्वपूर्ण सम्बन्ध हुन सक्छ। भिन्न-भिन्न कद्दुखुरा भेराइटीहरूका मूल्य भिन्न क्लस्टरहरू जस्तो देखिन्छ। यस अनुमानी पुष्टि गर्नको लागि, प्रत्येक कद्दुखुरा वर्गलाई भिन्न रंगले प्लट गरौं। `scatter` प्लटिङ फंक्शनलाई `ax` प्यारामिटर दिएर हामी सबै बिन्दुहरू एउटै ग्राफमा हाल्न सक्छौं: ```python ax=None @@ -128,42 +141,42 @@ for i,var in enumerate(new_pumpkins['Variety'].unique()): ax = df.plot.scatter('DayOfYear','Price',ax=ax,c=colors[i],label=var) ``` -मूल्य बनाम वर्षको दिनको स्क्याटरप्लट +Scatter plot of Price vs. Day of Year -हाम्रो अनुसन्धानले सुझाव दिन्छ कि प्रकारले वास्तविक बिक्री मितिभन्दा समग्र मूल्यमा बढी प्रभाव पार्छ। हामीले यो बार ग्राफको साथ देख्न सक्छौं: +हाम्रो अनुसन्धानले देखाउँछ कि भेराइटीले कुल मूल्यमा बिक्री मितिवाट बढी प्रभाव पार्छ। हामी यसलाई बार ग्राफबाट पनि देख्न सक्छौं: ```python new_pumpkins.groupby('Variety')['Price'].mean().plot(kind='bar') ``` -प्रकार बनाम मूल्यको बार ग्राफ +Bar graph of price vs variety -आउनुहोस् अहिलेको लागि केवल एक कद्दू प्रकार, 'pie type', मा ध्यान केन्द्रित गरौं, र हेर्नुहोस् कि मितिले मूल्यमा कस्तो प्रभाव पार्छ: +अहिले एक कद्दुखुरा भेराइटी, 'pie type', मा मात्र ध्यान दिनुहोस् र मिति मूल्यमा कस्तो प्रभाव पार्छ हेर्नुहोस्: ```python pie_pumpkins = new_pumpkins[new_pumpkins['Variety']=='PIE TYPE'] pie_pumpkins.plot.scatter('DayOfYear','Price') ``` -मूल्य बनाम वर्षको दिनको स्क्याटरप्लट +Scatter plot of Price vs. Day of Year -यदि हामी अहिले `corr` फंक्शन प्रयोग गरेर `मूल्य` र `DayOfYear` बीचको सम्बन्ध गणना गर्छौं भने, हामीले `-0.27` जस्तो केही प्राप्त गर्नेछौं - जसको अर्थ भविष्यवाणी मोडेल प्रशिक्षण गर्नुको अर्थ छ। +यदि हामी अब `Price` र `DayOfYear` बिच सहसंबन्ध `corr` फंक्शनले गणना गर्छौं भने `-0.27` जस्तो भेटिन्छ - जसले भविष्यवाणी गर्न योग्य मोडेल तालिम दिन सुझाउँछ। -> रेखीय रिग्रेशन मोडेल प्रशिक्षण गर्नु अघि, यो सुनिश्चित गर्नु महत्त्वपूर्ण छ कि हाम्रो डाटा सफा छ। रेखीय रिग्रेशनले हराएका मानहरूसँग राम्रोसँग काम गर्दैन, त्यसैले सबै खाली कोषहरू हटाउनु उचित हुन्छ: +> linear regression मोडेल तालिम दिने पहिले हाम्रो डेटा सफा हुनु पर्छ। Linear regression खाली मानहरू र मिसिंग मानहरूसँग राम्रोसँग काम गर्दैन, त्यसैले सबै खाली कोशहरू हटाउनु उचित हुन्छ: ```python pie_pumpkins.dropna(inplace=True) pie_pumpkins.info() ``` -अर्को दृष्टिकोण भनेको ती खाली मानहरूलाई सम्बन्धित स्तम्भबाट औसत मानहरूद्वारा भरिदिनु हो। +अर्को तरिका त हो कि ती खाली मानहरूलाई सोही स्तम्भको औसत मानले पूरै दिनु। -## साधारण रेखीय रिग्रेशन +## सरल Linear regression -[![मेसिन लर्निङका लागि शुरुआती - Scikit-learn प्रयोग गरेर रेखीय र बहुपद रिग्रेशन](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "मेसिन लर्निङका लागि शुरुआती - Scikit-learn प्रयोग गरेर रेखीय र बहुपद रिग्रेशन") +[![ML for beginners - Linear and Polynomial Regression using Scikit-learn](https://img.youtube.com/vi/e4c_UP2fSjg/0.jpg)](https://youtu.be/e4c_UP2fSjg "ML for beginners - Linear and Polynomial Regression using Scikit-learn") -> 🎥 माथिको छवि क्लिक गरेर रेखीय र बहुपद रिग्रेशनको छोटो भिडियो अवलोकन हेर्नुहोस्। +> 🎥 माथिको छविमा क्लिक गर्नुहोस् linear र polynomial regression को छोटो भिडियो अवलोकनका लागि। -हाम्रो रेखीय रिग्रेशन मोडेल प्रशिक्षण गर्न, हामी **Scikit-learn** लाइब्रेरी प्रयोग गर्नेछौं। +हाम्रो Linear Regression मोडेल तालिम दिन हामी **Scikit-learn** पुस्तकालय प्रयोग गर्नेछौं। ```python from sklearn.linear_model import LinearRegression @@ -171,31 +184,31 @@ from sklearn.metrics import mean_squared_error from sklearn.model_selection import train_test_split ``` -हामी इनपुट मानहरू (features) र अपेक्षित आउटपुट (label) लाई अलग-अलग numpy arrays मा विभाजन गरेर सुरु गर्छौं: +हामी इनपुट मानहरू (फिचरहरू) र अपेक्षित आउटपुट (लेबल) फरक numpy array मा अलग पार्छौं: ```python X = pie_pumpkins['DayOfYear'].to_numpy().reshape(-1,1) y = pie_pumpkins['Price'] ``` -> ध्यान दिनुहोस् कि हामीले इनपुट डाटामा `reshape` प्रदर्शन गर्नुपर्‍यो ताकि रेखीय रिग्रेशन प्याकेजले यसलाई सही रूपमा बुझ्न सकियोस्। रेखीय रिग्रेशनले इनपुटको रूपमा 2D-array अपेक्षा गर्दछ, जहाँ array को प्रत्येक पङ्क्ति इनपुट features को भेक्टरसँग मेल खान्छ। हाम्रो केसमा, किनभने हामीसँग केवल एक इनपुट छ - हामीलाई आकार N×1 भएको array चाहिन्छ, जहाँ N डेटासेटको आकार हो। +> ध्यान दिनुहोस् कि इनपुट डेटा लाई `reshape` गर्नुपर्यो ताकि Linear Regression प्याकेज यसलाई ठीकसँग बुझ्न सकोस्। Linear Regression ले 2D-array इनपुट चाहन्छ, जहाँ array को प्रत्येक पंक्ति इनपुट फिचरको भेक्टर हुन्छ। हाम्रो अवस्थामा, एक मात्र इनपुट छ - त्यसैले N×1 आकारको array चाहिन्छ, जहाँ N dataset को आकार हो। -त्यसपछि, हामीले डाटालाई ट्रेन र टेस्ट डेटासेटहरूमा विभाजन गर्नुपर्छ ताकि प्रशिक्षण पछि हाम्रो मोडेललाई मान्य गर्न सकियोस्: +त्यसपछि, हामी डाटालाई तालिम र परीक्षणको लागि दुई भागमा विभाजन गर्नुपर्छ ताकि तालिम पछि मोडेललाई मान्य गर्न सकियोस्: ```python X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) ``` -अन्ततः, वास्तविक रेखीय रिग्रेशन मोडेल प्रशिक्षण गर्न केवल दुई लाइन कोड लाग्छ। हामी `LinearRegression` वस्तु परिभाषित गर्छौं, र `fit` विधि प्रयोग गरेर यसलाई हाम्रो डाटामा फिट गर्छौं: +अन्तमा, Linear Regression मोडेलको तालिम लिन दुई पंक्तिहरू मात्र आवश्यक हुन्छ। हामी `LinearRegression` वस्तु परिभाषित गर्छौं, र `fit` विधि प्रयोग गरी यसलाई डाटामा फिट गर्छौं: ```python lin_reg = LinearRegression() lin_reg.fit(X_train,y_train) ``` -`LinearRegression` वस्तु `fit`-पश्चात् रिग्रेशनका सबै गुणांकहरू समावेश गर्दछ, जसलाई `.coef_` प्रोपर्टी प्रयोग गरेर पहुँच गर्न सकिन्छ। हाम्रो केसमा, केवल एक गुणांक छ, जुन `-0.017` को वरिपरि हुनुपर्छ। यसको अर्थ मूल्य समयसँगै थोरै घट्छ, तर धेरै होइन, लगभग प्रति दिन 2 सेन्ट। हामी रिग्रेशनको Y-अक्षसँगको intersection बिन्दु `lin_reg.intercept_` प्रयोग गरेर पनि पहुँच गर्न सक्छौं - यो हाम्रो केसमा लगभग `21` हुनेछ, जसले वर्षको सुरुमा मूल्यलाई संकेत गर्दछ। +`fit` गरेपछि `LinearRegression` वस्तु regresssion का सबै coefficients राख्छ, जुन `.coef_` प्रोपर्टी प्रयोग गरेर पहुँच गर्न सकिन्छ। हाम्रा अवस्थामा, त्यहाँ एउटा मात्र coefficient छ, जुन करीव `-0.017` हुनुपर्छ। यसको मतलब मूल्यहरू समयसँग अलिकति घट्ने देखिन्छ, तर धेरै होइन, दैनिक लगभग 2 सेन्ट। हामी regresssion को Y-अक्षसंगको intersection point `lin_reg.intercept_` प्रयोग गरेर पनि पहुँच गर्न सक्छौं - हाम्रो अवस्थामा यो करीब `21` हुनेछ, जुन वर्षको सुरुमै मूल्य जनाउँछ। -हाम्रो मोडेल कति सटीक छ हेर्नको लागि, हामी टेस्ट डेटासेटमा मूल्यहरू भविष्यवाणी गर्न सक्छौं, र त्यसपछि हाम्रो भविष्यवाणीहरू अपेक्षित मानहरूसँग कति नजिक छन् मापन गर्न सक्छौं। यो mean square error (MSE) मेट्रिक्स प्रयोग गरेर गर्न सकिन्छ, जुन अपेक्षित र भविष्यवाणी गरिएको मानहरू बीचको सबै वर्गाकार भिन्नताहरूको औसत हो। +हाम्रो मोडेल कति शुद्ध छ भनी हेर्नको लागि, हामी परीक्षण डेटासेटमा मूल्यहरू अनुमान गर्न सक्छौं, र त्यसपछि हाम्रा अनुमानहरू अपेक्षित मूल्यहरूसंग कति नजिक छन् मापन गर्न सक्छौं। यो mean square error (MSE) मेट्रिक प्रयोग गरेर गर्न सकिन्छ, जुन अपेक्षित र अनुमानित मूल्यहरू बीचको सबै वर्गयुक्त भिन्नताहरूको औसत हो। ```python pred = lin_reg.predict(X_test) @@ -203,36 +216,37 @@ pred = lin_reg.predict(X_test) mse = np.sqrt(mean_squared_error(y_test,pred)) print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') ``` -हाम्रो त्रुटि लगभग २ बिन्दुमा देखिन्छ, जुन ~१७% हो। यो धेरै राम्रो छैन। मोडेलको गुणस्तरको अर्को सूचक **निर्धारण गुणांक** हो, जसलाई यसरी प्राप्त गर्न सकिन्छ: + +हाम्रो त्रुटि करीव 2 points छ, जुन लगभग 17% हो। त्यति राम्रो छैन। मोडेल गुणस्तरको अर्को संकेतक हो **coefficient of determination**, जुन यसरी प्राप्त गर्न सकिन्छ: ```python score = lin_reg.score(X_train,y_train) print('Model determination: ', score) ``` -यदि मान ० छ भने यसको अर्थ मोडेलले इनपुट डाटालाई ध्यानमा राख्दैन, र *सबभन्दा खराब रेखीय भविष्यवक्ता* को रूपमा कार्य गर्दछ, जुन परिणामको औसत मान मात्र हो। मान १ भएमा हामी सबै अपेक्षित नतिजाहरू पूर्ण रूपमा भविष्यवाणी गर्न सक्छौं। हाम्रो अवस्थामा, निर्धारण गुणांक लगभग ०.०६ छ, जुन धेरै कम छ। +यदि मान 0 हो भने, यसको अर्थ मोडेल इनपुट डेटालाई ध्यान दिँदैन, र *worst linear predictor* को रूपमा कार्य गर्छ, जुन केवल परिणामको औसत मान हो। मान 1 को अर्थ हामी सबै अपेक्षित आउटपुटलाई पूर्ण रूपमा अनुमान गर्न सक्छौं। हाम्रा अवस्थामा, coefficient लगभग 0.06 छ, जुन धेरै कम हो। -हामी परीक्षण डाटा र रिग्रेसन रेखालाई सँगै प्लट गर्न सक्छौं ताकि हाम्रो अवस्थामा रिग्रेसन कसरी काम गर्छ भन्ने राम्रोसँग देख्न सकियोस्: +हामी परीक्षण डेटालाई regresssion लाइनसँगै प्लट गरेर पनि राम्रोसँग हेर्न सक्छौं कि regresssion हाम्रो अवस्थामा कसरी काम गर्छ: ```python plt.scatter(X_test,y_test) plt.plot(X_test,pred) ``` -रेखीय रिग्रेसन +Linear regression -## बहुपद रिग्रेसन +## Polynomial Regression -रेखीय रिग्रेसनको अर्को प्रकार बहुपद रिग्रेसन हो। कहिलेकाहीँ चरहरू बीच रेखीय सम्बन्ध हुन्छ - जस्तै, कद्दूको मात्रा ठूलो भएमा मूल्य उच्च हुन्छ - तर कहिलेकाहीँ यी सम्बन्धहरू समतल वा सीधा रेखाको रूपमा प्लट गर्न सकिँदैन। +अर्को प्रकारको Linear Regression हो Polynomial Regression। कतिपय अवस्थामा चरहरूबीच रेखीय सम्बन्ध हुन्छ - भोल्युम अनुसार कद्दू जति ठूलो हुन्छ, मूल्य उति नै बढी हुन्छ - तर कहिलेकाहीं यी सम्बन्धहरू सिधा रेखा वा तलको सतहको रूपमा देखाउन सकिंदैन। -✅ यहाँ [केही थप उदाहरणहरू](https://online.stat.psu.edu/stat501/lesson/9/9.8) छन् जसले बहुपद रिग्रेसन प्रयोग गर्न सक्ने डाटा देखाउँछ। +✅ यहाँ [अरु केही उदाहरणहरू](https://online.stat.psu.edu/stat501/lesson/9/9.8) छन्, जसमा Polynomial Regression प्रयोग गर्न सकिन्छ। -मिति र मूल्य बीचको सम्बन्धलाई फेरि हेर्नुहोस्। के यो स्क्याटरप्लट सीधा रेखाले विश्लेषण गर्नुपर्छ जस्तो देखिन्छ? के मूल्यहरू परिवर्तन हुन सक्दैनन्? यस अवस्थामा, तपाईं बहुपद रिग्रेसन प्रयास गर्न सक्नुहुन्छ। +Date र Price बीचको सम्बन्धलाई पुनः हेर्नुहोस्। के यो scatterplot अवश्य पनि सिधा रेखाले विश्लेषण गरिनुपर्छ जस्तो देखिन्छ? की मूल्यहरू परिवर्तन हुन सक्दैनन्? यस अवस्थामा, तपाईं polynomial regression प्रयास गर्न सक्नुहुन्छ। -✅ बहुपदहरू गणितीय अभिव्यक्तिहरू हुन् जसमा एक वा बढी चर र गुणांकहरू समावेश हुन सक्छन्। +✅ Polynomials तिनीहरू गणितीय अभिव्यक्तिहरू हुन् जसले एक वा बढी चरहरू र coefficients समावेश गर्न सक्छ। -बहुपद रिग्रेसनले गैर-रेखीय डाटालाई राम्रोसँग फिट गर्न घुमाउरो रेखा सिर्जना गर्छ। हाम्रो अवस्थामा, यदि हामी इनपुट डाटामा वर्गाकार `DayOfYear` चर समावेश गर्छौं भने, हामी हाम्रो डाटालाई पराबोलिक वक्रसँग फिट गर्न सक्षम हुनेछौं, जसको न्यूनतम वर्षको निश्चित बिन्दुमा हुनेछ। +Polynomial regression ले वक्र रेखा बनाउँछ जसले गैर-रेखीय डेटा राम्रोसँग फिट गर्छ। हाम्रो अवस्थामा, यदि हामीले इनपुट डेटामा squared `DayOfYear` चर समावेश गर्यौं भने, हामी हाम्रो डेटालाई एक पराबोलिक वक्रसँग फिट गर्न सक्षम हुनेछौं, जसको न्यूनतम वर्षभित्र कुनै निश्चित बिन्दुमा हुनेछ। -Scikit-learn ले विभिन्न डाटा प्रशोधन चरणहरूलाई सँगै संयोजन गर्न उपयोगी [पाइपलाइन API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) समावेश गर्दछ। **पाइपलाइन** **अनुमानकर्ताहरू** को श्रृंखला हो। हाम्रो अवस्थामा, हामी एक पाइपलाइन सिर्जना गर्नेछौं जसले पहिलो बहुपद विशेषताहरूलाई हाम्रो मोडेलमा थप्छ, र त्यसपछि रिग्रेसनलाई प्रशिक्षण दिन्छ: +Scikit-learn मा उपयोगी [pipeline API](https://scikit-learn.org/stable/modules/generated/sklearn.pipeline.make_pipeline.html?highlight=pipeline#sklearn.pipeline.make_pipeline) समावेश छ जुन डाटा प्रक्रिया गर्ने फरक चरणहरूलाई जोड्न प्रयोग हुन्छ। **pipeline** भनेको धेरै **estimators** को श्रृंखला हो। हाम्रो अवस्थामा, हामी यस्तो pipeline बनाउँछौं जसले पहिले polynomial features मोडेलमा थप्छ, अनि regresssion तालिम दिन्छ: ```python from sklearn.preprocessing import PolynomialFeatures @@ -243,36 +257,36 @@ pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) ``` -`PolynomialFeatures(2)` प्रयोग गर्दा यसको अर्थ इनपुट डाटाबाट सबै दोस्रो-डिग्री बहुपदहरू समावेश हुनेछ। हाम्रो अवस्थामा यसको मतलब केवल `DayOfYear`2 हुनेछ, तर दुई इनपुट चरहरू X र Y दिँदा, यसले X2, XY र Y2 थप्नेछ। यदि हामी चाहन्छौं भने उच्च डिग्री बहुपदहरू पनि प्रयोग गर्न सक्छौं। +`PolynomialFeatures(2)` प्रयोग गर्नाले हामी इनपुट डेटाबाट सबै दोस्रो-श्रेणी polynomial समावेश गर्छौं। हाम्रो अवस्थामा यसले मात्र `DayOfYear`² मतलब दिन्छ, तर दुई इनपुट चर X र Y भएमा यसले X², XY र Y² थप्छ। हामी उच्चतम डिग्री polynomial पनि प्रयोग गर्न सक्छौं। -पाइपलाइनहरू मूल `LinearRegression` वस्तुको जस्तै तरिकामा प्रयोग गर्न सकिन्छ, अर्थात् हामी पाइपलाइनलाई `fit` गर्न सक्छौं, र त्यसपछि भविष्यवाणी परिणामहरू प्राप्त गर्न `predict` प्रयोग गर्न सक्छौं। यहाँ परीक्षण डाटा र अनुमान वक्र देखाउने ग्राफ छ: +Pipelines मूल `LinearRegression` वस्तु जस्तै प्रयोग गर्न सकिन्छ, अर्थात् हामी pipeline लाई `fit` गर्न सक्छौं, अनि `predict` प्रयोग गरेर परिणाम पाउन सक्छौं। यो ग्राफले परीक्षण डाटा र नजिकको वक्र देखाउँछ: -बहुपद रिग्रेसन +Polynomial regression -बहुपद रिग्रेसन प्रयोग गर्दा, हामी थोरै कम MSE र उच्च निर्धारण प्राप्त गर्न सक्छौं, तर धेरै महत्त्वपूर्ण रूपमा होइन। हामीले अन्य विशेषताहरूलाई ध्यानमा राख्न आवश्यक छ! +Polynomial Regression को प्रयोगले हामी सँधै अलि कम MSE र बढी determination पाउन सक्छौं, तर त्यति धेरै हुँदैन। हामीले अरु features पनि ध्यान दिनु पर्छ! -> तपाईं देख्न सक्नुहुन्छ कि न्यूनतम कद्दू मूल्यहरू हलोविनको वरिपरि देखिन्छ। तपाईं यसलाई कसरी व्याख्या गर्न सक्नुहुन्छ? +> तपाईंले देख्नुभयो होला कि न्यूनतम कद्दू मूल्यहरू लगभग Halloween का आसपास अवलोकन गरिन्छ। यसलाई कसरी व्याख्या गर्नुहुन्छ? -🎃 बधाई छ, तपाईंले पाई कद्दूको मूल्य भविष्यवाणी गर्न मद्दत गर्ने मोडेल सिर्जना गर्नुभयो। तपाईं सम्भवतः सबै कद्दू प्रकारहरूको लागि समान प्रक्रिया दोहोर्याउन सक्नुहुन्छ, तर त्यो थकाउने हुनेछ। अब सिकौं कि कसरी हाम्रो मोडेलमा कद्दूको विविधतालाई ध्यानमा राख्ने! +🎃 बधाई छ, तपाईंले यस्तो मोडेल बनाउनु भयो जसले pie pumpkins को मूल्य अनुमान गर्न मद्दत गर्दछ। तपाईं सम्भवतः यही प्रक्रिया सबै कद्दू प्रकारको लागि दोहोर्याउन सक्नुहुन्छ, तर त्यो काम थकाउ हुनेछ। अब हामी सिकौं कसरी हाम्रो मोडेलमा कद्दूको भिन्नता लिन सकिन्छ! -## श्रेणीगत विशेषताहरू +## Categorical Features -आदर्श संसारमा, हामी एउटै मोडेल प्रयोग गरेर विभिन्न कद्दू प्रकारहरूको मूल्य भविष्यवाणी गर्न सक्षम हुन चाहन्छौं। तर, `Variety` स्तम्भ `Month` जस्ता स्तम्भहरू भन्दा केही फरक छ, किनभने यसमा गैर-संख्यात्मक मानहरू समावेश छन्। यस्ता स्तम्भहरूलाई **श्रेणीगत** भनिन्छ। +सपनाको संसारमा, हामीले एउटै मोडेल प्रयोग गरेर फरक फरक कद्दू भेराइटीहरूको मूल्य अनुमान गर्न चाहन्छौं। तर `Variety` स्तम्भ `Month` जस्ता स्तम्भहरू जस्तै छैन, किनकि यसले गैर-सांख्यिक मानहरू समावेश गर्दछन्। यस्ता स्तम्भहरूलाई **categorical** भनिन्छ। -[![शुरुआतीहरूको लागि ML - श्रेणीगत विशेषताहरूको साथ रेखीय रिग्रेसन](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "शुरुआतीहरूको लागि ML - श्रेणीगत विशेषताहरूको साथ रेखीय रिग्रेसन") +[![ML for beginners - Categorical Feature Predictions with Linear Regression](https://img.youtube.com/vi/DYGliioIAE0/0.jpg)](https://youtu.be/DYGliioIAE0 "ML for beginners - Categorical Feature Predictions with Linear Regression") -> 🎥 माथिको छवि क्लिक गरेर श्रेणीगत विशेषताहरू प्रयोग गर्ने छोटो भिडियो अवलोकन हेर्नुहोस्। +> 🎥 माथिको छवि क्लिक गरेर categorical features प्रयोग गर्ने छोटो भिडियो हेर्न सक्नुहुन्छ। -यहाँ तपाईं देख्न सक्नुहुन्छ कि औसत मूल्य विविधतामा कसरी निर्भर गर्दछ: +यहाँ तपाईंले देख्न सक्नुहुन्छ कि औसत मूल्य भेराइटीमा कसरी निर्भर गर्दछ: -विविधताद्वारा औसत मूल्य +Average price by variety -विविधतालाई ध्यानमा राख्न, हामीले पहिले यसलाई संख्यात्मक रूपमा रूपान्तरण गर्न आवश्यक छ, वा **एन्कोड** गर्नुपर्छ। यसलाई गर्नका लागि केही तरिकाहरू छन्: +भेराइटीलाई ध्यानमा लिन, पहिले हामीले यसलाई सांख्यिक मानमा रूपान्तरण गर्नुपर्छ, वा **encode** गर्नुपर्छ। यसका केही तरिकाहरू छन्: -* साधारण **संख्यात्मक एन्कोडिङ** ले विभिन्न विविधताहरूको तालिका बनाउनेछ, र त्यसपछि विविधताको नामलाई उक्त तालिकामा सूचकांकले प्रतिस्थापन गर्नेछ। यो रेखीय रिग्रेसनको लागि उत्तम विचार होइन, किनभने रेखीय रिग्रेसनले सूचकांकको वास्तविक संख्यात्मक मानलाई लिन्छ, र केही गुणांकले गुणा गरेर नतिजामा थप्छ। हाम्रो अवस्थामा, सूचकांक नम्बर र मूल्य बीचको सम्बन्ध स्पष्ट रूपमा गैर-रेखीय छ, भले पनि हामी सुनिश्चित गर्छौं कि सूचकांकहरू कुनै विशिष्ट तरिकामा क्रमबद्ध छन्। -* **वन-हट एन्कोडिङ** ले `Variety` स्तम्भलाई ४ विभिन्न स्तम्भहरूले प्रतिस्थापन गर्नेछ, प्रत्येक विविधताको लागि एउटा। प्रत्येक स्तम्भले `१` समावेश गर्नेछ यदि सम्बन्धित पङ्क्ति दिइएको विविधताको हो भने, र `०` अन्यथा। यसको मतलब रेखीय रिग्रेसनमा चार गुणांकहरू हुनेछन्, प्रत्येक कद्दू विविधताको लागि, उक्त विशेष विविधताको लागि "सुरुवात मूल्य" (वा "थप मूल्य") को जिम्मेवार। +* साधारण **numeric encoding** ले विभिन्न भेराइटीहरूको तालिका बनाउनेछ, र त्यसपछि भेराइटी नामलाई तालिकामा रहेको index द्वारा प्रतिस्थापन गर्नेछ। यो linear regression का लागि उत्तम होइन, किनकि linear regression ले वास्तवमा index को संख्यात्मक मान लिन्छ र परिणाममा यसलाई केही coefficient द्वारा गुणा गरेर थप्छ। हाम्रो अवस्थामा, index नम्बर र मूल्य बीचको सम्बन्ध स्पष्ट रूपमा गैर-रेखीय छ, यहाँसम्म कि यदि हामीले indices लाई कुनै विशिष्ट क्रममा राख्यौं भने पनि। +* **One-hot encoding** ले `Variety` स्तम्भलाई 4 फरक स्तम्भहरूमा बदल्नेछ, प्रत्येक भेराइटीका लागि एउटै। प्रत्येक स्तम्भमा `1` हुनेछ यदि त्यो पङ्क्ति उक्त भेराइटीको हो, नत्र `0`। यसको मतलब regresssion मा चार वटा coefficients हुनेछन्, प्रत्येक कद्दू भेराइटीको लागि, जुन उक्त भेराइटीका लागि "शुरुमा मूल्य" (वा "थप मूल्य") को जिम्मेवार हुनेछ। -तलको कोडले विविधतालाई वन-हट एन्कोड कसरी गर्न सकिन्छ देखाउँछ: +तलको कोडले कसरी variety लाई one-hot encode गर्न सकिन्छ देखाउँछ: ```python pd.get_dummies(new_pumpkins['Variety']) @@ -289,14 +303,14 @@ pd.get_dummies(new_pumpkins['Variety']) 1741 | 0 | 1 | 0 | 0 1742 | 0 | 1 | 0 | 0 -वन-हट एन्कोड गरिएको विविधतालाई इनपुटको रूपमा प्रयोग गरेर रेखीय रिग्रेसन प्रशिक्षण गर्न, हामीले केवल `X` र `y` डाटालाई सही रूपमा आरम्भ गर्न आवश्यक छ: +one-hot encoded variety लाई इनपुट बनाएर linear regression तालिम दिन, हामीले सही तरिकाले `X` र `y` डेटा initialize गर्नुपर्छ: ```python X = pd.get_dummies(new_pumpkins['Variety']) y = new_pumpkins['Price'] ``` -बाकी कोड माथि प्रयोग गरिएको रेखीय रिग्रेसन प्रशिक्षण गर्न प्रयोग गरिएको कोड जस्तै छ। यदि तपाईंले प्रयास गर्नुभयो भने, तपाईं देख्नुहुनेछ कि औसत वर्ग त्रुटि लगभग उस्तै छ, तर हामीले धेरै उच्च निर्धारण गुणांक (~७७%) प्राप्त गर्छौं। अझ सही भविष्यवाणीहरू प्राप्त गर्न, हामीले थप श्रेणीगत विशेषताहरू, साथै संख्यात्मक विशेषताहरू, जस्तै `Month` वा `DayOfYear` लाई ध्यानमा राख्न सक्छौं। विशेषताहरूको ठूलो एरे प्राप्त गर्न, हामी `join` प्रयोग गर्न सक्छौं: +बाकी कोड भनेको Linear Regression तालिम दिन माथि प्रयोग गरिएको को संग नै छ। यदि तपाईं प्रयास गर्नुहुन्छ भने, mean squared error लगभग उस्तै हुने देख्नुहुनेछ, तर हामी धेरै उच्च coefficient of determination (~77%) पाउँछौं। अझ शुद्ध अनुमान पाउनका लागि, हामी धेरै categorical features र साथै सांख्यिक features जस्तै `Month` वा `DayOfYear` लाई पनि विचार गर्न सक्छौं। एउटा ठूलो array बनाउनका लागि हामी `join` प्रयोग गर्न सक्छौं: ```python X = pd.get_dummies(new_pumpkins['Variety']) \ @@ -306,31 +320,31 @@ X = pd.get_dummies(new_pumpkins['Variety']) \ y = new_pumpkins['Price'] ``` -यहाँ हामीले `City` र `Package` प्रकारलाई पनि ध्यानमा राखेका छौं, जसले हामीलाई MSE २.८४ (१०%) र निर्धारण ०.९४ दिन्छ! +यहाँ हामीले `City` र `Package` type पनि ध्यानमा राखेका छौं, जसले हामीलाई MSE 2.84 (10%) र determination 0.94 दिन्छ! -## सबैलाई सँगै राख्दै +## सबैलाई मिलाएर -सर्वश्रेष्ठ मोडेल बनाउन, हामी माथिको उदाहरणबाट संयुक्त (वन-हट एन्कोड गरिएको श्रेणीगत + संख्यात्मक) डाटा बहुपद रिग्रेसनसँग प्रयोग गर्न सक्छौं। यहाँ तपाईंको सुविधाको लागि पूर्ण कोड छ: +सबै भन्दा राम्रो मोडेल बनाउन, हामी माथिको उदाहरणको संयुक्त (one-hot encoded categorical + numeric) डेटा र Polynomial Regression एकसाथ प्रयोग गर्न सक्छौं। तपाईंको सहूलियतका लागि पूर्ण कोड यहाँ छ: ```python -# set up training data +# प्रशिक्षण डेटालाई सेट अप गर्नुहोस् X = pd.get_dummies(new_pumpkins['Variety']) \ .join(new_pumpkins['Month']) \ .join(pd.get_dummies(new_pumpkins['City'])) \ .join(pd.get_dummies(new_pumpkins['Package'])) y = new_pumpkins['Price'] -# make train-test split +# प्रशिक्षण-टेस्ट विभाजन बनाउनुहोस् X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) -# setup and train the pipeline +# पाइपलाइन सेटअप र प्रशिक्षण गर्नुहोस् pipeline = make_pipeline(PolynomialFeatures(2), LinearRegression()) pipeline.fit(X_train,y_train) -# predict results for test data +# परीक्षण डेटाका लागि परिणामहरू पूर्वानुमान गर्नुहोस् pred = pipeline.predict(X_test) -# calculate MSE and determination +# MSE र निर्धारण गणना गर्नुहोस् mse = np.sqrt(mean_squared_error(y_test,pred)) print(f'Mean error: {mse:3.3} ({mse/np.mean(pred)*100:3.3}%)') @@ -338,34 +352,36 @@ score = pipeline.score(X_train,y_train) print('Model determination: ', score) ``` -यसले हामीलाई लगभग ९७% निर्धारण गुणांक र MSE=२.२३ (~८% भविष्यवाणी त्रुटि) दिन्छ। +यसले हामीलाई लगभग 97% निर्धारण coefficient र MSE=2.23 (~8% अनुमान त्रुटि) दिनेछ। | मोडेल | MSE | निर्धारण | -|-------|-----|----------| -| `DayOfYear` रेखीय | २.७७ (१७.२%) | ०.०७ | -| `DayOfYear` बहुपद | २.७३ (१७.०%) | ०.०८ | -| `Variety` रेखीय | ५.२४ (१९.७%) | ०.७७ | -| सबै विशेषताहरू रेखीय | २.८४ (१०.५%) | ०.९४ | -| सबै विशेषताहरू बहुपद | २.२३ (८.२५%) | ०.९७ | +|-------|-----|---------------| +| `DayOfYear` Linear | 2.77 (17.2%) | 0.07 | +| `DayOfYear` Polynomial | 2.73 (17.0%) | 0.08 | +| `Variety` Linear | 5.24 (19.7%) | 0.77 | +| सबै features Linear | 2.84 (10.5%) | 0.94 | +| सबै features Polynomial | 2.23 (8.25%) | 0.97 | -🏆 राम्रो काम! तपाईंले एक पाठमा चार रिग्रेसन मोडेलहरू सिर्जना गर्नुभयो, र मोडेलको गुणस्तरलाई ९७% सम्म सुधार गर्नुभयो। रिग्रेसनको अन्तिम खण्डमा, तपाईंले श्रेणी निर्धारण गर्न लॉजिस्टिक रिग्रेसनको बारेमा सिक्नुहुनेछ। +🏆 राम्रो काम! तपाईंले एउटा पाठमा चार Regression मोडेल बनाउनु भयो, र मोडेल गुणस्तरलाई 97% सम्म सुधार्नुभयो। Regression को अन्तिम खण्डमा, तपाईंले Logistic Regression को बारेमा सिक्नु हुनेछ जुन वर्गहरू निर्धारण गर्न प्रयोग हुन्छ। --- -## 🚀 चुनौती +## 🚀Challenge -यस नोटबुकमा विभिन्न चरहरू परीक्षण गर्नुहोस् ताकि सम्बन्ध मोडेलको सटीकतासँग कसरी मेल खान्छ हेर्न सकियोस्। +यस नोटबुकमा विभिन्न चरहरू परीक्षण गरेर हेर्नुहोस् कि सहसंबन्ध र मोडेलको शुद्धताबीच कस्तो सम्बन्ध हुन्छ। -## [पाठ-पछिको क्विज](https://ff-quizzes.netlify.app/en/ml/) +## [पाठ पूरा गरे पछिको क्विज](https://ff-quizzes.netlify.app/en/ml/) -## समीक्षा र आत्म अध्ययन +## पुनरावलोकन र आत्म-अध्ययन -यस पाठमा हामीले रेखीय रिग्रेसनको बारेमा सिक्यौं। रिग्रेसनका अन्य महत्त्वपूर्ण प्रकारहरू छन्। Stepwise, Ridge, Lasso र Elasticnet प्रविधिहरूको बारेमा पढ्नुहोस्। थप जान्नको लागि राम्रो पाठ्यक्रम [स्ट्यानफोर्ड स्ट्याटिस्टिकल लर्निङ कोर्स](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning) हो। +यस पाठमा हामीले Linear Regression सिक्यौं। Regression का अन्य महत्वपूर्ण प्रकारहरू पनि छन्। Stepwise, Ridge, Lasso र Elasticnet प्रविधिहरूको बारेमा पढ्नुहोस्। थप अध्ययनका लागि राम्रो कोर्स हो [Stanford Statistical Learning course](https://online.stanford.edu/courses/sohs-ystatslearning-statistical-learning) -## असाइनमेन्ट +## कार्य [मोडेल बनाउनुहोस्](assignment.md) --- -**अस्वीकरण**: -यो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरी अनुवाद गरिएको हो। हामी यथासम्भव सटीकता सुनिश्चित गर्न प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादहरूमा त्रुटि वा अशुद्धता हुन सक्छ। यसको मूल भाषामा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्त्वपूर्ण जानकारीका लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याका लागि हामी जिम्मेवार हुने छैनौं। \ No newline at end of file + +**अस्वीकरण**: +यस दस्तावेजलाई AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) को माध्यमबाट अनुवाद गरिएको हो। हामी शुद्धताका लागि प्रयासरत छौं भने पनि, कृपया जानकार हुनुहोस् कि स्वचालित अनुवादमा त्रुटि वा अशुद्धता हुन सक्छ। मूल दस्तावेज यसको मूल भाषामा नै अधिकारिक स्रोत मान्नुपर्छ। महत्वपूर्ण जानकारीका लागि व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा दुरव्याख्याका लागि हामी उत्तरदायी छैनौं। + \ No newline at end of file diff --git a/translations/ne/4-Classification/3-Classifiers-2/README.md b/translations/ne/4-Classification/3-Classifiers-2/README.md index 3b9226992..e93189168 100644 --- a/translations/ne/4-Classification/3-Classifiers-2/README.md +++ b/translations/ne/4-Classification/3-Classifiers-2/README.md @@ -1,42 +1,42 @@ -# खाना वर्गीकरणकर्ता २ +# खाना वर्गीकरण २ -यस दोस्रो वर्गीकरण पाठमा, तपाईंले संख्यात्मक डाटालाई वर्गीकरण गर्ने थप तरिकाहरू अन्वेषण गर्नुहुनेछ। साथै, तपाईंले एक वर्गीकरणकर्ता चयन गर्दा हुने प्रभावहरूको बारेमा सिक्नुहुनेछ। +यस दोस्रो वर्गीकरण पाठमा, तपाईंले संख्यात्मक डाटालाई वर्गीकृत गर्ने थप तरिकाहरू अन्वेषण गर्नुहुनेछ। तपाईंले अर्को वर्गीकर्तालाई छनौट गर्दा के कस्तो प्रभाव पर्नेछ भनेर पनि सिक्नु हुनेछ। -## [पाठ अघि क्विज](https://ff-quizzes.netlify.app/en/ml/) +## [पूर्व-व्याख्यान क्विज](https://ff-quizzes.netlify.app/en/ml/) -### पूर्वशर्त +### पूर्वसर्त -हामी मान्दछौं कि तपाईंले अघिल्लो पाठहरू पूरा गर्नुभएको छ र तपाईंको `data` फोल्डरमा _cleaned_cuisines.csv_ नामक सफा गरिएको डेटासेट छ, जुन यो ४-पाठको फोल्डरको मूलमा छ। +हामी मान्छौं कि तपाईंले पहिलेका पाठहरू पूरा गरिसक्नु भएको छ र तपाईंको `data` फोल्डरमा एउटा सफा गरिएको डेटासेट _cleaned_cuisines.csv_ छ जुन ४-पाठको फोल्डरको मूल भागमा रहेको छ। ### तयारी -हामीले तपाईंको _notebook.ipynb_ फाइललाई सफा गरिएको डेटासेटसँग लोड गरेका छौं र यसलाई X र y डाटाफ्रेमहरूमा विभाजन गरेका छौं, मोडेल निर्माण प्रक्रियाको लागि तयार। +हामीले तपाईंको _notebook.ipynb_ फाइलमा सफा गरिएको डेटासेट लोड गरेका छौं र यसलाई X र y डाटाफ्रेमहरूमा विभाजित गरेर मोडल निर्माण प्रक्रियाका लागि तयार पारिएको छ। -## वर्गीकरण नक्सा +## एक वर्गीकरण नक्सा -पहिले, तपाईंले माइक्रोसफ्टको चिट शीट प्रयोग गरेर डाटा वर्गीकरण गर्दा विभिन्न विकल्पहरूको बारेमा सिक्नुभएको थियो। Scikit-learn ले यस्तै तर अझ विस्तृत चिट शीट प्रदान गर्दछ, जसले तपाईंलाई वर्गीकरणकर्ता चयन गर्न अझ सटीक रूपमा मद्दत गर्न सक्छ: +पहिले, तपाईंले Microsoft को चिट शीट प्रयोग गरेर डाटा वर्गीकरण गर्दा उपलब्ध विभिन्न विकल्पहरू सिक्नु भएको थियो। Scikit-learn ले पनि यस्तै, तर थप सटिक चिट शीट प्रदान गर्छ जुन तपाईंलाई तपाईंका ईस्टिमेटरहरू (अरू शब्दमा वर्गीकर्ता) निर्धारण गर्न थप सहयोग गर्दछ: -![Scikit-learn बाट ML नक्सा](../../../../4-Classification/3-Classifiers-2/images/map.png) -> टिप: [यो नक्सा अनलाइन हेर्नुहोस्](https://scikit-learn.org/stable/tutorial/machine_learning_map/) र मार्गमा क्लिक गरेर दस्तावेज पढ्नुहोस्। +![ML Map from Scikit-learn](../../../../translated_images/ne/map.e963a6a51349425a.webp) +> संकेत: [यो नक्सामा अनलाइन जानुहोस्](https://scikit-learn.org/stable/tutorial/machine_learning_map/) र बाटामा क्लिक गरेर दस्तावेज पढ्नुहोस्। ### योजना -यो नक्सा तपाईंको डाटाको स्पष्ट समझ भएपछि धेरै उपयोगी हुन्छ, किनकि तपाईं यसका मार्गहरू 'हिँडेर' निर्णयमा पुग्न सक्नुहुन्छ: +यो नक्सा तपाईंको डाटा स्पष्ट भएपछि धेरै मद्दत गर्नेछ, किनकि तपाईं यसको बाटामा 'हिँडेर' निर्णयमा पुग्न सक्नुहुन्छ: -- हामीसँग >५० नमूनाहरू छन् -- हामीले एक श्रेणीको भविष्यवाणी गर्नुपर्छ +- हामीसँग >50 नमूना छ +- हामी एउटा वर्ग पूर्वानुमान गर्न चाहन्छौं - हामीसँग लेबल गरिएको डाटा छ -- हामीसँग १००K भन्दा कम नमूनाहरू छन् -- ✨ हामीले Linear SVC चयन गर्न सक्छौं -- यदि यो काम गरेन भने, किनकि हामीसँग संख्यात्मक डाटा छ - - हामी ✨ KNeighbors Classifier प्रयास गर्न सक्छौं - - यदि यो काम गरेन भने, ✨ SVC र ✨ Ensemble Classifiers प्रयास गर्नुहोस् +- हामीसँग 100K नमुनाभन्दा कम छ +- ✨ हामी Linear SVC छनौट गर्न सक्दछौं +- यदि त्यो काम गर्दैन, किनकि हामीसँग संख्यात्मक डाटा छ + - हामी ✨ KNeighbors Classifier प्रयास गर्न सक्छौं + - यदि त्यो काम गर्दैन भने, ✨ SVC र ✨ Ensemble Classifiers प्रयास गर्नुहोस् -यो पछ्याउन धेरै उपयोगी मार्ग हो। +यो अध्ययन मार्ग अनुसरण गर्न धेरै उपयोगी छ। ## अभ्यास - डाटा विभाजन गर्नुहोस् -यस मार्गलाई पछ्याउँदै, हामीले प्रयोग गर्न केही पुस्तकालयहरू आयात गर्नुपर्छ। +यो बाटो अनुसरण गर्दै, हामीले केही पुस्तकालयहरू आयात गर्न सुरु गर्नुपर्छ। 1. आवश्यक पुस्तकालयहरू आयात गर्नुहोस्: @@ -53,28 +53,28 @@ 1. तपाईंको प्रशिक्षण र परीक्षण डाटा विभाजन गर्नुहोस्: ```python - X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3) + X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3) ``` -## Linear SVC वर्गीकरणकर्ता +## Linear SVC वर्गीकर्ता -Support-Vector Clustering (SVC) Support-Vector Machines परिवारको ML प्रविधिको एक हिस्सा हो (तल यसबारे थप जान्नुहोस्)। यस विधिमा, तपाईंले 'kernel' चयन गर्न सक्नुहुन्छ जसले लेबलहरू कसरी समूहबद्ध गर्ने निर्णय गर्दछ। 'C' प्यारामिटर 'regularization' लाई जनाउँछ, जसले प्यारामिटरहरूको प्रभावलाई नियमन गर्दछ। Kernel [कयौं](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC) मध्ये एक हुन सक्छ; यहाँ हामीले यसलाई 'linear' मा सेट गरेका छौं ताकि Linear SVC प्रयोग गर्न सकियोस्। Probability डिफल्टमा 'false' हुन्छ; यहाँ हामीले यसलाई 'true' मा सेट गरेका छौं ताकि probability estimates प्राप्त गर्न सकियोस्। हामीले random state लाई '0' मा सेट गरेका छौं ताकि डाटा शफल गरेर probabilities प्राप्त गर्न सकियोस्। +Support-Vector clustering (SVC) Support-Vector मेशिन परिवारको एक सदस्य हो (यीका बारेमा तल थप जान्नुहोस्)। यस विधिमा तपाईंले 'kernel' छनौट गर्न सक्नुहुन्छ जसले लेबलहरूलाई कसरी क्लस्टर गर्ने निर्णय गर्छ। 'C' प्यारामीटर 'regularization' सँग सम्बद्ध हुन्छ जसले प्यारामीटरहरूको प्रभावलाई नियन्त्रित गर्छ। kernel विभिन्न [प्रकारहरू](https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html#sklearn.svm.SVC) को हुन सक्छ; यहाँ हामी 'linear' लाई सेट गर्दछौं ताकि linear SVC को फाइदा लिन सकियोस्। Probability को डिफल्ट 'false' हुन्छ; यहाँ हामीलाई probability अनुमानहरू सङ्कलन गर्न 'true' मा सेट गरेका छौं। डेटा शफल गर्न र सम्भाव्यता सुनिश्चित गर्न र्यान्डम स्टेटलाई '0' मा सेट गरेका छौं। -### अभ्यास - Linear SVC लागू गर्नुहोस् +### अभ्यास - linear SVC लागू गर्नुहोस् -क्लासिफायरहरूको एक array सिर्जना गरेर सुरु गर्नुहोस्। हामीले परीक्षण गर्दा यस array मा क्रमिक रूपमा थप्नेछौं। +वर्गीकर्ताहरूको एउटा एरे बनाएर सुरु गर्नुहोस्। परीक्षण गर्दै जाँदा तपाईं यसलाई क्रमिक रूपमा थप्नु हुनेछ। 1. Linear SVC बाट सुरु गर्नुहोस्: ```python C = 10 - # Create different classifiers. + # विभिन्न वर्गीकरणकर्ता निर्माण गर्नुहोस्। classifiers = { 'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0) } ``` -2. Linear SVC प्रयोग गरेर तपाईंको मोडेल प्रशिक्षण गर्नुहोस् र रिपोर्ट प्रिन्ट गर्नुहोस्: +2. Linear SVC प्रयोग गरेर तपाईंको मोडललाई प्रशिक्षण दिनुहोस् र रिपोर्ट प्रिन्ट गर्नुहोस्: ```python n_classifiers = len(classifiers) @@ -88,7 +88,7 @@ Support-Vector Clustering (SVC) Support-Vector Machines परिवारको print(classification_report(y_test,y_pred)) ``` - नतिजा धेरै राम्रो छ: + नतिजा साँच्चै राम्रो छ: ```output Accuracy (train) for Linear SVC: 78.6% @@ -105,21 +105,21 @@ Support-Vector Clustering (SVC) Support-Vector Machines परिवारको weighted avg 0.79 0.79 0.79 1199 ``` -## K-Neighbors वर्गीकरणकर्ता +## K-Neighbors वर्गीकर्ता -K-Neighbors "neighbors" परिवारको ML विधिको हिस्सा हो, जसले supervised र unsupervised दुवै सिकाइका लागि प्रयोग गर्न सकिन्छ। यस विधिमा, पूर्वनिर्धारित बिन्दुहरूको संख्या सिर्जना गरिन्छ र डाटा ती बिन्दुहरूको वरिपरि संकलन गरिन्छ ताकि सामान्यीकृत लेबलहरू डाटाको लागि भविष्यवाणी गर्न सकियोस्। +K-Neighbors "neighbors" परिवारको ML विधि हो, जसलाई सुपरभाइज़्ड र अनसुपरभाइज़्ड दुबै शिक्षाका लागि प्रयोग गर्न सकिन्छ। यस विधिमा, पूर्वनिर्धारित संख्यामा पोइन्टहरू बनाइन्छ र डाटा ती पोइन्टहरू वरिपरि समेटिन्छ जसले डेटा को सामान्यीकृत लेबलहरू भविष्यवाणी गर्न मद्दत गर्दछ। -### अभ्यास - K-Neighbors वर्गीकरणकर्ता लागू गर्नुहोस् +### अभ्यास - K-Neighbors वर्गीकर्ता लागू गर्नुहोस् -अघिल्लो वर्गीकरणकर्ता राम्रो थियो, र डाटासँग राम्रोसँग काम गर्यो, तर सायद हामी अझ राम्रो accuracy प्राप्त गर्न सक्छौं। K-Neighbors वर्गीकरणकर्ता प्रयास गर्नुहोस्। +पहिलो वर्गीकर्ता राम्रो थियो, र डाटासँग राम्रोसँग काम गर्‍यो, तर शायद हामी अझ राम्रो सटीकता प्राप्त गर्न सक्छौं। K-Neighbors वर्गीकर्ता प्रयास गर्नुहोस्। -1. तपाईंको क्लासिफायर array मा एक लाइन थप्नुहोस् (Linear SVC आइटम पछि comma थप्नुहोस्): +1. तपाईंको वर्गीकर्ता एरेमा एउटा लाइन थप्नुहोस् (Linear SVC आइटम पछि कमामा थिच्नुहोस्): ```python 'KNN classifier': KNeighborsClassifier(C), ``` - नतिजा अलि खराब छ: + परिणाम अलि खराब छ: ```output Accuracy (train) for KNN classifier: 73.8% @@ -136,23 +136,23 @@ K-Neighbors "neighbors" परिवारको ML विधिको हिस weighted avg 0.76 0.74 0.74 1199 ``` - ✅ [K-Neighbors](https://scikit-learn.org/stable/modules/neighbors.html#neighbors) को बारेमा जान्नुहोस् + ✅ [K-Neighbors](https://scikit-learn.org/stable/modules/neighbors.html#neighbors) बारे जान्नुहोस् ## Support Vector Classifier -Support-Vector Classifiers [Support-Vector Machine](https://wikipedia.org/wiki/Support-vector_machine) परिवारको ML विधिको हिस्सा हुन्, जसले वर्गीकरण र regression कार्यहरूको लागि प्रयोग गरिन्छ। SVMs "प्रशिक्षण उदाहरणहरूलाई ठाउँमा बिन्दुहरूमा म्याप" गर्छन् ताकि दुई श्रेणीहरू बीचको दूरी अधिकतम गर्न सकियोस्। त्यसपछि डाटालाई यस ठाउँमा म्याप गरिन्छ ताकि तिनीहरूको श्रेणी भविष्यवाणी गर्न सकियोस्। +Support-Vector वर्गीकर्ताहरू [Support-Vector Machine](https://wikipedia.org/wiki/Support-vector_machine) परिवारका हुन् जसले वर्गीकरण र रिग्रेसन कार्यहरूका लागि प्रयोग गरिन्छ। SVM ले "प्रशिक्षण उदाहरणहरूलाई अन्तरिक्षका पोइन्टहरूमा नक्साङ्कन" गर्छ र दुई वर्गबीचको दूरी अधिकतम पार्दछ। पछि आउने डेटा यस अन्तरिक्षमा नक्साङ्कन गरिन्छ ताकि तिनीहरूको वर्ग भविष्यवाणी गर्न सकियोस्। ### अभ्यास - Support Vector Classifier लागू गर्नुहोस् -Support Vector Classifier प्रयोग गरेर अलि राम्रो accuracy प्राप्त गर्ने प्रयास गरौं। +Support Vector Classifier सँग अलिक राम्रो सटीकता प्रयास गरौं। -1. K-Neighbors आइटम पछि comma थप्नुहोस्, र यो लाइन थप्नुहोस्: +1. K-Neighbors आइटम पछि कमामा थिचेर यो लाइन थप्नुहोस्: ```python 'SVC': SVC(), ``` - नतिजा धेरै राम्रो छ! + नतिजा निकै राम्रो छ! ```output Accuracy (train) for SVC: 83.2% @@ -169,18 +169,18 @@ Support Vector Classifier प्रयोग गरेर अलि राम् weighted avg 0.84 0.83 0.83 1199 ``` - ✅ [Support-Vectors](https://scikit-learn.org/stable/modules/svm.html#svm) को बारेमा जान्नुहोस् + ✅ [Support-Vectors](https://scikit-learn.org/stable/modules/svm.html#svm) बारे थाहा पाउनुहोस् ## Ensemble Classifiers -पथको अन्त्यसम्म पुगौं, यद्यपि अघिल्लो परीक्षण धेरै राम्रो थियो। 'Ensemble Classifiers' प्रयास गरौं, विशेष गरी Random Forest र AdaBoost: +हामी बाटोको अन्त्यसम्म जाने प्रयास गरौं, यद्यपि पहिलेको परीक्षण राम्रो थियो। अब 'Ensemble Classifiers', विशेष रूपमा Random Forest र AdaBoost प्रयास गरौं: ```python 'RFST': RandomForestClassifier(n_estimators=100), 'ADA': AdaBoostClassifier(n_estimators=100) ``` -नतिजा धेरै राम्रो छ, विशेष गरी Random Forest को लागि: +यो नतिजा धेरै राम्रो छ, विशेष गरेर Random Forest को लागि: ```output Accuracy (train) for RFST: 84.5% @@ -210,31 +210,33 @@ Accuracy (train) for ADA: 72.4% weighted avg 0.73 0.72 0.72 1199 ``` -✅ [Ensemble Classifiers](https://scikit-learn.org/stable/modules/ensemble.html) को बारेमा जान्नुहोस् +✅ [Ensemble Classifiers](https://scikit-learn.org/stable/modules/ensemble.html) बारे जान्नुहोस् -Machine Learning को यो विधिले "कई आधार अनुमानकर्ताहरूको भविष्यवाणीलाई संयोजन" गरेर मोडेलको गुणस्तर सुधार गर्दछ। हाम्रो उदाहरणमा, हामीले Random Trees र AdaBoost प्रयोग गरेका छौं। +यो मेसिन लर्निंग विधिले "धेरै आधारभूत ईस्टिमेटरहरूको पूर्वानुमानहरूलाई मिलाएर" मोडलको गुणस्तर सुधार गर्छ। हाम्रो उदाहरणमा, हामीले Random Trees र AdaBoost प्रयोग गरेका छौं। -- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), एक औसत विधि, 'decision trees' को 'forest' निर्माण गर्दछ जसमा randomness समावेश गरिएको हुन्छ ताकि overfitting रोक्न सकियोस्। n_estimators प्यारामिटरलाई रूखहरूको संख्या सेट गरिएको छ। +- [Random Forest](https://scikit-learn.org/stable/modules/ensemble.html#forest), एक औसत गर्ने विधि, 'निर्णय वृक्षहरू' को 'जंगल' बनाउँछ जसमा अनियमितता मिसाइएको हुन्छ ताकि ओभरफिटिङ नहोस्। n_estimators प्यारामीटरले रूखहरूको संख्या सेट गर्दछ। -- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) एक वर्गीकरणकर्तालाई डेटासेटमा फिट गर्छ र त्यस वर्गीकरणकर्ताको प्रतिलिपिहरूलाई सोही डेटासेटमा फिट गर्छ। यसले गलत वर्गीकृत वस्तुहरूको वजनमा ध्यान केन्द्रित गर्छ र अर्को वर्गीकरणकर्ताको फिटलाई सुधार गर्न समायोजन गर्छ। +- [AdaBoost](https://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html) एउटा वर्गीकर्तालाई डेटासेटमा फिट गर्छ र त्यसको प्रतिलिपिहरू त्यहि डेटासेटमा फिट गर्छ। यसले गलत वर्गीकृत वस्तुहरूको तौलमा ध्यान दिन्छ र अर्को वर्गीकर्ताको फिटलाई सुधार्न मिलाउँछ। --- -## 🚀 चुनौती +## 🚀चुनौती -यी प्रत्येक प्रविधिहरूमा धेरै प्यारामिटरहरू छन् जसलाई तपाईं समायोजन गर्न सक्नुहुन्छ। प्रत्येकको डिफल्ट प्यारामिटरहरूको अनुसन्धान गर्नुहोस् र यी प्यारामिटरहरू समायोजन गर्दा मोडेलको गुणस्तरमा के प्रभाव पर्छ भनेर सोच्नुहोस्। +यी प्रत्येक प्रविधिहरूमा धेरै प्यारामीटरहरू छन् जसलाई तपाईंले अनुसार ट्युन गर्न सक्नुहुन्छ। प्रत्येकको डिफल्ट प्यारामीटरहरू अनुसंधान गर्नुहोस् र ती प्यारामीटरहरू ट्विक गर्दा मोडलको गुणस्तरमा के फरक पर्नेछ भनेर सोच्नुहोस्। -## [पाठ पछि क्विज](https://ff-quizzes.netlify.app/en/ml/) +## [पोस्ट-व्याख्यान क्विज](https://ff-quizzes.netlify.app/en/ml/) -## समीक्षा र आत्म अध्ययन +## समीक्षा र आत्म-अध्ययन -यी पाठहरूमा धेरै जटिल शब्दावली छ, त्यसैले [यो सूची](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) को उपयोगी शब्दावली समीक्षा गर्न एक मिनेट लिनुहोस्! +यी पाठहरूमा धेरै पर्यायवाची शब्दहरू छन्, त्यसैले एक मिनेट लिएर [यो सूची](https://docs.microsoft.com/dotnet/machine-learning/resources/glossary?WT.mc_id=academic-77952-leestott) समीक्षा गर्नुहोस् जसले उपयोगी शब्दावली समेट्छ! -## असाइनमेन्ट +## असाइनमेन्ट -[प्यारामिटर खेल](assignment.md) +[प्यारामीटर खेल](assignment.md) --- -**अस्वीकरण**: -यो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको छ। हामी शुद्धताको लागि प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादमा त्रुटिहरू वा अशुद्धताहरू हुन सक्छ। यसको मूल भाषा मा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्वपूर्ण जानकारीको लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार हुने छैनौं। \ No newline at end of file + +**अस्वीकरण**: +यो कागजात AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरी अनुवाद गरिएको हो। हामी शुद्धताको प्रयास गर्छौं भने पनि, कृपया जानकार हुनुहोस् कि स्वचालित अनुवादमा त्रुटि वा असत्यता हुन सक्छ। मूल कागजात यसको मूल भाषामा आधिकारिक स्रोत मानिनु पर्छ। महत्वपूर्ण जानकारीको लागि व्यावसायिक मानवीय अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार छैनौं। + \ No newline at end of file diff --git a/translations/ne/4-Classification/3-Classifiers-2/notebook.ipynb b/translations/ne/4-Classification/3-Classifiers-2/notebook.ipynb index 75eb55bbf..b7052550c 100644 --- a/translations/ne/4-Classification/3-Classifiers-2/notebook.ipynb +++ b/translations/ne/4-Classification/3-Classifiers-2/notebook.ipynb @@ -3,7 +3,9 @@ { "cell_type": "markdown", "metadata": {}, - "source": [] + "source": [ + "# वर्गीकरण मोडल निर्माण गर्नुहोस्\n" + ] }, { "cell_type": "code", @@ -114,15 +116,15 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**अस्वीकरण**: \nयो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको छ। हामी शुद्धताको लागि प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादहरूमा त्रुटि वा अशुद्धता हुन सक्छ। यसको मूल भाषामा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्वपूर्ण जानकारीको लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार हुने छैनौं।\n" + "---\n\n\n**अस्वीकरण**:\nयो दस्तावेज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको हो। हामी शुद्धताका लागि प्रयासरत छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादमा त्रुटि वा अशुद्धता हुनसक्छ। मूल दस्तावेज यसको स्वदेशी भाषामा नै अधिकारिक स्रोत मानिन्छ। गम्भीर जानकारीको लागि, व्यावसायिक मानवीय अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न कुनै पनि गलतफहमी वा गलत अर्थ लगाउनुमा हामी जिम्मेवार छैनौं।\n\n" ] } ], @@ -150,12 +152,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "15a83277036572e0773229b5f21c1e12", - "translation_date": "2025-08-29T19:28:28+00:00", - "source_file": "4-Classification/3-Classifiers-2/notebook.ipynb", - "language_code": "ne" } }, "nbformat": 4, diff --git a/translations/ne/4-Classification/3-Classifiers-2/solution/notebook.ipynb b/translations/ne/4-Classification/3-Classifiers-2/solution/notebook.ipynb index 8a507852f..733304a71 100644 --- a/translations/ne/4-Classification/3-Classifiers-2/solution/notebook.ipynb +++ b/translations/ne/4-Classification/3-Classifiers-2/solution/notebook.ipynb @@ -1,7 +1,9 @@ { "cells": [ { - "source": [], + "source": [ + "# थप वर्गीकरण मोडेलहरू निर्माण गर्नुहोस्\n" + ], "cell_type": "markdown", "metadata": {} }, @@ -114,14 +116,16 @@ } ], "source": [ - "cuisines_feature_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", - "cuisines_feature_df.head()" + "cuisines_features_df = cuisines_df.drop(['Unnamed: 0', 'cuisine'], axis=1)\n", + "cuisines_features_df.head()" ] }, { "cell_type": "markdown", "metadata": {}, - "source": [] + "source": [ + "# विभिन्न वर्गीकरणहरू प्रयास गर्नुहोस्\n" + ] }, { "cell_type": "code", @@ -144,7 +148,7 @@ "metadata": {}, "outputs": [], "source": [ - "X_train, X_test, y_train, y_test = train_test_split(cuisines_feature_df, cuisines_label_df, test_size=0.3)" + "X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)" ] }, { @@ -259,7 +263,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "\n---\n\n**अस्वीकरण**: \nयो दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरेर अनुवाद गरिएको छ। हामी शुद्धताको लागि प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादहरूमा त्रुटि वा अशुद्धता हुन सक्छ। यसको मूल भाषा मा रहेको मूल दस्तावेज़लाई आधिकारिक स्रोत मानिनुपर्छ। महत्वपूर्ण जानकारीको लागि, व्यावसायिक मानव अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलतफहमी वा गलत व्याख्याको लागि हामी जिम्मेवार हुने छैनौं।\n" + "---\n\n\n**अस्वीकरण**:\nयो दस्तावेज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरी अनुवाद गरिएको हो। हामी सहीताको प्रयास गर्छौं, तर कृपया जानकार हुनुहोस् कि स्वचालित अनुवादमा त्रुटि वा गलतफहमी हुन सक्दछ। मूल दस्तावेज यसको मूल भाषामा आधिकारिक स्रोतको रूपमा मानिनुपर्छ। गम्भीर जानकारीका लागि व्यावसायिक मानवीय अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट कुनै पनि गलत बुझाइ वा व्याख्यामा हामी जिम्मेवार हुँदैनौं।\n\n" ] } ], @@ -287,12 +291,6 @@ "interpreter": { "hash": "70b38d7a306a849643e446cd70466270a13445e5987dfa1344ef2b127438fa4d" } - }, - "coopTranslator": { - "original_hash": "7ea2b714669c823a596d986ba2d5739f", - "translation_date": "2025-08-29T19:28:39+00:00", - "source_file": "4-Classification/3-Classifiers-2/solution/notebook.ipynb", - "language_code": "ne" } }, "nbformat": 4, diff --git a/translations/ne/README.md b/translations/ne/README.md index 72cf71d3b..8fb64d1be 100644 --- a/translations/ne/README.md +++ b/translations/ne/README.md @@ -8,160 +8,170 @@ [![GitHub forks](https://img.shields.io/github/forks/microsoft/ML-For-Beginners.svg?style=social&label=Fork)](https://GitHub.com/microsoft/ML-For-Beginners/network/) [![GitHub stars](https://img.shields.io/github/stars/microsoft/ML-For-Beginners.svg?style=social&label=Star)](https://GitHub.com/microsoft/ML-For-Beginners/stargazers/) -### 🌐 बहुभाषिक समर्थन +### 🌐 बहुभाषी समर्थन #### GitHub Action मार्फत समर्थित (स्वचालित र सधैं अद्यावधिक) [Arabic](../ar/README.md) | [Bengali](../bn/README.md) | [Bulgarian](../bg/README.md) | [Burmese (Myanmar)](../my/README.md) | [Chinese (Simplified)](../zh-CN/README.md) | [Chinese (Traditional, Hong Kong)](../zh-HK/README.md) | [Chinese (Traditional, Macau)](../zh-MO/README.md) | [Chinese (Traditional, Taiwan)](../zh-TW/README.md) | [Croatian](../hr/README.md) | [Czech](../cs/README.md) | [Danish](../da/README.md) | [Dutch](../nl/README.md) | [Estonian](../et/README.md) | [Finnish](../fi/README.md) | [French](../fr/README.md) | [German](../de/README.md) | [Greek](../el/README.md) | [Hebrew](../he/README.md) | [Hindi](../hi/README.md) | [Hungarian](../hu/README.md) | [Indonesian](../id/README.md) | [Italian](../it/README.md) | [Japanese](../ja/README.md) | [Kannada](../kn/README.md) | [Korean](../ko/README.md) | [Lithuanian](../lt/README.md) | [Malay](../ms/README.md) | [Malayalam](../ml/README.md) | [Marathi](../mr/README.md) | [Nepali](./README.md) | [Nigerian Pidgin](../pcm/README.md) | [Norwegian](../no/README.md) | [Persian (Farsi)](../fa/README.md) | [Polish](../pl/README.md) | [Portuguese (Brazil)](../pt-BR/README.md) | [Portuguese (Portugal)](../pt-PT/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Romanian](../ro/README.md) | [Russian](../ru/README.md) | [Serbian (Cyrillic)](../sr/README.md) | [Slovak](../sk/README.md) | [Slovenian](../sl/README.md) | [Spanish](../es/README.md) | [Swahili](../sw/README.md) | [Swedish](../sv/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Tamil](../ta/README.md) | [Telugu](../te/README.md) | [Thai](../th/README.md) | [Turkish](../tr/README.md) | [Ukrainian](../uk/README.md) | [Urdu](../ur/README.md) | [Vietnamese](../vi/README.md) -> **स्थानीय रूपमा क्लोन गर्न चाहनुहुन्छ?** - -> यस रिपोजिटरीमा ५०+ भाषाका अनुवादहरू समावेश छन् जसले डाउनलोड आकारलाई धेरै बढाउँछ। अनुवादहरू नभएको क्लोन गर्न, sparse checkout प्रयोग गर्नुहोस्: +> **स्थानीय क्लोन गर्न रुचाउनुहुन्छ?** +> +> यस रिपोजिटरीमा ५०+ भाषाका अनुवादहरू समावेश छन् जसले डाउनलोड साइजलाई उल्लेखनीय रूपमा बढाउँछ। अनुवादहरू बिना क्लोन गर्न, sparse checkout प्रयोग गर्नुहोस्: +> +> **Bash / macOS / Linux:** > ```bash > git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git > cd ML-For-Beginners > git sparse-checkout set --no-cone '/*' '!translations' '!translated_images' > ``` -> यसले तपाईंलाई कोर्स पूरा गर्न आवश्यक सबै सामग्री धेरै छिटो डाउनलोडको साथ दिन्छ। +> +> **CMD (Windows):** +> ```cmd +> git clone --filter=blob:none --sparse https://github.com/microsoft/ML-For-Beginners.git +> cd ML-For-Beginners +> git sparse-checkout set --no-cone "/*" "!translations" "!translated_images" +> ``` +> +> यसले तपाईंलाई धेरै छिटो डाउनलोड गरेर कोर्स पूरा गर्न आवश्यक सबै कुरा दिन्छ। #### हाम्रो समुदायमा सामेल हुनुहोस् [![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -हामीसँग Discord मा AI सँग सिक्ने श्रृंखला चलिरहेको छ, थप जान्न र हामीसँग सामेल हुन [Learn with AI Series](https://aka.ms/learnwithai/discord) मा १८ - ३० सेप्टेम्बर, २०२५ मा आउनुहोस्। तपाईंले GitHub Copilot प्रयोग गरेर Data Science को टिप्स र ट्रिक्स पाउनुहुनेछ। +हामीसँग एक चलिरहेको Discord learn with AI श्रृंखला छ, थप जान्न र सामेल हुन [Learn with AI Series](https://aka.ms/learnwithai/discord) मा जानुहोस्, सेप्टेम्बर १८ - ३०, २०२५। तपाईंलाई GitHub Copilot लाई डेटा साइन्सका लागि कसरी प्रयोग गर्ने सुझाव र तरिका प्राप्त हुनेछ। ![Learn with AI series](../../translated_images/ne/3.9b58fd8d6c373c20.webp) -# सुरूवातकर्ताहरूका लागि मेशिन लर्निङ - एक पाठ्यक्रम +# शुरुआतीहरूको लागि मेशिन लर्निङ - एक पाठ्यक्रम -> 🌍 संसारभरि यात्रा गर्दै हामी संसारका संस्कृतिहरूको माध्यमबाट मेशिन लर्निङ खोज्दैछौं 🌍 +> 🌍 विश्वका संस्कृतिहरू मार्फत मेशिन लर्निङ अन्वेषण गर्दा विश्व भ्रमण गर्नुहोस् 🌍 -Microsoft का क्लाउड एड्भोकेटहरूले १२ हप्ताको, २६ पाठहरूको पाठ्यक्रम प्रदान गर्न पाउँदा खुशी छन् जसले **मेशिन लर्निङ** बारेमा सबै कुरा सिकाउँछ। यस पाठ्यक्रममा, तपाईंले कहिलेकाहीँ भनिने **क्लासिक मेशिन लर्निङ** को बारेमा सिक्नु हुनेछ, मुख्यतः Scikit-learn लाई प्रयोग गरी र गहिरो सिकाइबाट बच्दै, जुन हाम्रो [AI for Beginners' पाठ्यक्रम](https://aka.ms/ai4beginners) मा समेटिएको छ। यी पाठहरूसँग हाम्रो ['Data Science for Beginners' पाठ्यक्रम](https://aka.ms/ds4beginners) पनि सँगै प्रयोग गर्नुहोस्। +Microsoft का क्लाउड एड्भोकेटहरूले **मेशिन लर्निङ** सम्बन्धि १२ हप्ता, २६-पाठ्यक्रम प्रस्ताव गर्न पाउँदा खुशी छन्। यस पाठ्यक्रममा, तपाईं प्रायः Scikit-learn लाइब्रेरी प्रयोग गरी जाने कहिले काहीँ **क्लासिक मेशिन लर्निङ** भनिने विषय सिक्नुहुनेछ, र गहिरो शिक्षण (deep learning) बाट बच्नु हुने छ, जुन हाम्रो [AI for Beginners’ पाठ्यक्रम](https://aka.ms/ai4beginners) मा समेटिएको छ। यी पाठहरूलाई हाम्रो ['Data Science for Beginners' पाठ्यक्रम](https://aka.ms/ds4beginners) सँग पनि जोड्न सक्नुहुन्छ। -विश्वका विभिन्न क्षेत्रका डाटाहरूमा यी क्लासिक प्रविधिहरू लागू गर्दै हामीसँग संसारभरि यात्रा गर्नुहोस्। प्रत्येक पाठमा पूर्व र पछि क्विजहरू, लेखिएका निर्देशनहरू, समाधान, असाइनमेन्ट, र थप छन्। हाम्रो परियोजना-आधारित सिकाइले तपाईंलाई बनाउन सिक्न मद्दत गर्छ, जुन नयाँ कौशलहरूलाई 'टिकाउन' मद्दत पुर्‍याउने एक प्रमाणित तरिका हो। +विश्वका धेरै क्षेत्रका डेटा माथि यी क्लासिक प्रविधिहरू लागू गर्दै हामीसँग यात्रा गर्नुहोस्। प्रत्येक पाठमा पूर्व र पश्चात क्विज, लेखिएको निर्देशन, समाधान, असाइनमेन्ट र थप समावेश छन्। हाम्रो परियोजना-आधारित शिक्षाशैलीले तपाईंलाई सिक्दै निर्माण गर्ने मौका दिन्छ, जुन नयाँ कौशललाई 'टिकाउन' प्रमाणित मार्ग हो। -**✍️ हृदयदेखि धन्यवाद हाम्रा लेखकहरूलाई** जेन लूपर, स्टेफेन हाउल, फ्रान्सेस्का लाज्जेरी, टोमोमी इमुरा, क्यास्सी ब्रेभियु, दिमित्री सोल्श्निकोव, क्रिस नोरिङ, अनिर्बान मुखर्जी, ओर्नेला अल्टुन्यान, रुथ याकुबु र एमी बोयडलाई +**✍️ हाम्रा लेखकहरूलाई हार्दिक धन्यवाद** जेन लूपर, स्टीफन हावेल, फ्रान्सेस्का लाज्जेरी, टोमोमी इमुरा, क्यास्सी ब्रेभिउ, Dmitry Soshnikov, क्रिस नोरींग, अनिरबान मुखर्जी, ओर्नेला अल्टुन्यान, रुथ याकुबु र एमी बोयड -**🎨 साथै धन्यवाद हाम्रा चित्रकारहरूलाई** टोमोमी इमुरा, दासानी मडिपल्ली, र जेन लूपरलाई +**🎨 हाम्रा चित्रकारहरूलाई पनि धन्यवाद** टोमोमी इमुरा, दासानी मादीपल्ली, र जेन लूपर -**🙏 विशेष धन्यवाद 🙏 हाम्रो Microsoft Student Ambassador लेखक, समीक्षक र सामग्री योगदानकर्ताहरूलाई**, विशेष गरी ऋषित दागली, मुहम्मद साकिब खान इनान, रोहन राज, अलेक्जान्ड्रु पेट्रेस्कु, अभिषेक जयसवाल, नावरिन तबस्सुम, इओन सामुइला, र स्निग्धा अगरवाललाई +**🙏 विशेष धन्यवाद 🙏 हाम्रो Microsoft Student Ambassador लेखकलगायत समीक्षक र सामग्री योगदानकर्ताहरू**, विशेष गरी ऋषित दग्ली, मुहम्मद साकिब खान इनान, रोहन राज, अलेक्जान्ड्रु पेट्रेस्कु, अभिषेक जायसवाल, नवरिन तबास्सुम, इओन सामुइला, र स्निग्धा अग्रवाललाई -**🤩 थप कृतज्ञता Microsoft Student Ambassadors Eric Wanjau, Jasleen Sondhi, र Vidushi Gupta लाई हाम्रा R पाठहरूका लागि!** +**🤩 Microsoft Student Ambassadors Eric Wanjau, Jasleen Sondhi, र Vidushi Gupta लाई हाम्रो R पाठका लागि अतिरिक्त कृतज्ञता!** # सुरु गर्ने तरिका यी चरणहरू पालना गर्नुहोस्: -1. **रिपोजिटरी फोर्क गर्नुहोस्**: यस पृष्ठको माथि-दायाँ कुनामा रहेको "Fork" बटनमा क्लिक गर्नुहोस्। -2. **रिपोजिटरी क्लोन गर्नुहोस्**: `git clone https://github.com/microsoft/ML-For-Beginners.git` +1. **रिपोजिटरी फोर्क गर्नुहोस्**: पृष्ठको माथि-दायाँ कुनामा "Fork" बटनमा क्लिक गर्नुहोस्। +2. **रिपोजिटरी क्लोन गर्नुहोस्**: `git clone https://github.com/microsoft/ML-For-Beginners.git` -> [यस कोर्सका लागि सबै अतिरिक्त स्रोतहरू हाम्रो Microsoft Learn संग्रहमा फेला पार्नुहोस्](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) +> [यो कोर्सका सबै थप स्रोतहरू हाम्रो Microsoft Learn संग्रहमा पाउनुहोस्](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) -> 🔧 **सहायता चाहिन्छ?** जडान, सेटअप, र पाठहरू चलाउने सामान्य समस्याहरूको समाधानका लागि हाम्रो [समस्या समाधान मार्गदर्शिका](TROUBLESHOOTING.md) हेर्नुहोस्। +> 🔧 **मद्धत चाहिन्छ?** सामान्य समस्याहरूका समाधानहरूको लागि हाम्रो [समस्या समाधान मार्गदर्शिका](TROUBLESHOOTING.md) जाँच्नुहोस्। -**[विद्यार्थीहरू](https://aka.ms/student-page)**, यस पाठ्यक्रम प्रयोग गर्नका लागि, सम्पूर्ण रिपो तपाईंको आफ्नो GitHub खातामा फोर्क गरी व्यायामहरू आफैं वा समूहसँग पूरा गर्नुहोस्: +**[विद्यार्थीहरू](https://aka.ms/student-page)**, यो पाठ्यक्रम प्रयोग गर्न, आफ्नो GitHub खातामा सम्पूर्ण रिपो फोर्क गरी अभ्यासहरू आफैं वा समूहका साथ पूरा गर्नुहोस्: -- प्रि-लेक्चर क्विजबाट सुरु गर्नुहोस्। -- लेक्चर पढ्नुहोस् र क्रियाकलापहरू पूरा गर्नुहोस्, हरेक ज्ञान जाँचमा विराम लगाएर र विचार गर्दै। -- समाधान कोड चलाउनको सट्टा पाठहरूलाई बुझ्दै परियोजनाहरू सिर्जना गर्ने प्रयास गर्नुहोस्; यद्यपि त्यो कोड प्रत्येक परियोजना-मुखी पाठमा `/solution` फोल्डरमा उपलब्ध छ। -- पोस्ट-लेक्चर क्विज लिनुहोस्। +- पूर्व-व्याख्यान क्विजबाट सुरु गर्नुहोस्। +- व्याख्यान पढ्नुहोस् र प्रत्येक ज्ञान जाँचमा रोकी मर्म समझ गर्दै गतिविधिहरू पूरा गर्नुहोस्। +- परियोजना बनाउन प्रयास गर्नुहोस्, समाधान कोड चलाउनुभन्दा पाठहरू बुझ्न प्रयास गर्नुहोस्; तथापि समाधान कोड प्रत्येक परियोजना-उन्मुख पाठका `/solution` फोल्डरहरूमा उपलब्ध छ। +- पश्चात व्याख्यान क्विज लिउँ। - चुनौती पूरा गर्नुहोस्। - असाइनमेन्ट पूरा गर्नुहोस्। -- पाठ समूह पूरा गरेपछि, [चर्चा बोर्ड](https://github.com/microsoft/ML-For-Beginners/discussions) मा जानुहोस् र उपयुक्त PAT रब्रिक भरि "लर्न आउट लाउड" गर्नुहोस्। 'PAT' भनेको प्रगति मूल्याङ्कन उपकरण हो जुन तपाईंले तपाईंको सिकाइलाई अघि बढाउन भरिने एउटा रब्रिक हो। तपाईंले अरू PATs मा प्रतिक्रिया पनि दिन सक्नुहुन्छ ताकि हामी सँगै सिक्न सकौं। +- एक पाठ समूह पूरा गरेपछि, [चर्चा बोर्ड](https://github.com/microsoft/ML-For-Beginners/discussions) मा जानुहोस् र उपयुक्त PAT रूब्रिक भर्दै "सायधा सिक्नुहोस्"। 'PAT' प्रगति मूल्याङ्कन उपकरण हो जुन तपाईंले आफ्ना सीखहरूलाई अगाडि बढाउन भर्नुहुन्छ। तपाईंले अन्य PATs मा प्रतिक्रिया जनाउन पनि सक्नुहुन्छ ताकि हामी सँगै सिक्न सकौं। -> थप अध्ययनका लागि, यी [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) मोड्युल र सिकाइ मार्गहरू अनुशरण गर्न सिफारिस गरिन्छ। +> थप अध्ययनका लागि, यी [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/k7o7tg1gp306q4?WT.mc_id=academic-77952-leestott) मोड्युल र सिकाइ मार्गहरूको पालना गर्न सिफारिस गर्दछौं। -**शिक्षकहरूका लागि**, हामीले [केही सुझावहरू](for-teachers.md) समावेश गरेका छौं कि कसरी यस पाठ्यक्रम प्रयोग गर्ने। +**शिक्षकहरू**, हामीले यो पाठ्यक्रम कसरी प्रयोग गर्ने बारे केही [सुझावहरू](for-teachers.md) समावेश गरेका छौं। --- -## भिडियो वाकथ्रूहरू +## भिडियो हिड्ने तरिका -केही पाठहरू छोटो भिडियोको रूपमा उपलब्ध छन्। तपाईं यी सबैलाई पाठ भित्र वा [Microsoft Developer यूट्युब च्यानलको ML for Beginners प्लेलिस्ट](https://aka.ms/ml-beginners-videos) मा तलको तस्वीरमा क्लिक गरेर हेर्न सक्नुहुन्छ। +केही पाठहरू छोटो फारम भिडियोमा उपलब्ध छन्। तपाईं यी सबैलाई पाठहरू भित्र सिधै वा [Microsoft Developer YouTube च्यानलको ML for Beginners प्लेलिस्टमा](https://aka.ms/ml-beginners-videos) तलको छविमा क्लिक गरेर हेर्न सक्नुहुन्छ। [![ML for beginners banner](../../translated_images/ne/ml-for-beginners-video-banner.63f694a100034bc6.webp)](https://aka.ms/ml-beginners-videos) --- -## टिमसँग भेट्नुहोस् +## टोलीसँग परिचय [![Promo video](../../images/ml.gif)](https://youtu.be/Tj1XWrDSYJU) -**गिफ द्वारा** [Mohit Jaisal](https://linkedin.com/in/mohitjaisal) +**Gif द्वारा** [Mohit Jaisal](https://linkedin.com/in/mohitjaisal) -> 🎥 परियोजना र त्यसलाई बनाउने व्यक्तिहरूको बारेमा भिडियो हेर्न माथिको चित्रमा क्लिक गर्नुहोस्! +> 🎥 माथि छविमा क्लिक गरी परियोजना र यसलाई सिर्जना गर्ने व्यक्तिहरूको भिडियो हेर्नुहोस्! --- -## शिक्षण विधि +## शिक्षाशास्त्र -हामीले यो पाठ्यक्रम निर्माण गर्दा दुई शिक्षण सिद्धान्तहरू चयन गरेका छौं: यसलाई हातमा काम गर्ने **परियोजना-आधारित** बनाउन र यसमा **बारम्बार क्विजहरू** समावेश गर्न। साथै, यस पाठ्यक्रमलाई एक साझा **थिम** दिइयो जुन यसलाई एकता प्रदान गर्छ। +यो पाठ्यक्रम निर्माण गर्दा हामीले दुई शिक्षाशास्त्रीय सिद्धान्तहरू रोजेका छौं: यो हातमा काम गर्ने **परियोजना-आधारित** हुनुपर्ने र यसले **बारम्बार क्युइजहरू** समावेश गर्ने हुनुपर्ने। यसको साथै, यस पाठ्यक्रममा एक साझा **थिम** छ जुन यसलाई सुसंगत बनाउँछ। -सामग्री परियोजनाहरूसँग मेल खाँदा, प्रक्रिया विद्यार्थीहरूको लागि थप आकर्षक हुन्छ र अवधारणाहरूको सम्झना बढ्छ। साथै, कक्षाको अगाडि कम जोखिमको क्विजले विद्यार्थीको सिक्ने उदेश्य सेट गर्छ भने, कक्षापछि दोस्रो क्विजले थप सम्झना सुनिश्चित गर्छ। यो पाठ्यक्रम लचिलो र रमाइलो बनाउन डिजाइन गरिएको हो र पूर्ण वा भागमा लिन सकिन्छ। परियोजनाहरू साना सुरू भएर १२ हप्ताको अन्त्यसम्म क्रमशः जटिल हुन्छन्। यस पाठ्यक्रममा मेशिन लर्निङका वास्तविक विश्व प्रयोगहरूमा पोस्टस्क्रिप्ट पनि छ, जसलाई अतिरिक्त क्रेडिट वा छलफलको आधारको रूपमा प्रयोग गर्न सकिन्छ। +सामग्रीलाई परियोजनाहरूसँग मिलाएर प्रस्तुत गर्दा विद्यार्थीहरूका लागि रमाइलो हुन्छ र अवधारणाहरूको सम्हाल स्थायी हुन्छ। साथै, कक्षाका अघि लागू हुने कम जोखिमको क्युइज विद्यार्थीको सिकाइ प्रति चाहना सेट गर्दछ, र कक्षापश्चात हुने दोस्रो क्युइज थप बुझाइ सुनिश्चित गर्दछ। यो पाठ्यक्रम लचिलो र रमाइलो हुन डिजाइन गरिएको छ र पूरै वा अंशमा लिन सकिन्छ। परियोजनाहरू साना बाट सुरु भएर १२ हप्ताको अन्त्यतिर जटिल हुँदै जान्छन्। यस पाठ्यक्रममा ML का वास्तविक-विश्व प्रयोगहरूको एक पोस्टस्क्रिप्ट पनि छ, जसलाई बिषयगत क्रेडिट वा छलफलको आधारको रूपमा प्रयोग गर्न सकिन्छ। -> हाम्रो [आचार संहिता](CODE_OF_CONDUCT.md), [योगदान](CONTRIBUTING.md), [अनुवाद](TRANSLATIONS.md), र [समस्या समाधान](TROUBLESHOOTING.md) दिशानिर्देशहरू पत्ता लगाउनुहोस्। हामी तपाईंको रचनात्मक प्रतिक्रिया स्वागत गर्छौं! +> हाम्रो [आचरण संहिता](CODE_OF_CONDUCT.md), [योगदान](CONTRIBUTING.md), [अनुवाद](TRANSLATIONS.md), र [समस्या समाधान](TROUBLESHOOTING.md) मार्गनिर्देशनहरू पाउनुहोस्। हामी तपाईंको रचनात्मक प्रतिक्रियालाई स्वागत गर्दछौं! ## प्रत्येक पाठमा समावेश छन् -- वैकल्पिक स्केचनोट +- वैकल्पिक स्केच नोट - वैकल्पिक पूरक भिडियो -- भिडियो वाकथ्रू (केही पाठहरूमा मात्र) -- [पूर्व-लेक्चर वार्मअप क्विज](https://ff-quizzes.netlify.app/en/ml/) +- भिडियो हिड्ने तरिका (केही पाठहरूका लागि मात्र) +- [पूर्व-व्याख्यान वार्मअप क्युइज](https://ff-quizzes.netlify.app/en/ml/) - लेखिएको पाठ -- परियोजना-आधारित पाठहरूका लागि, परियोजना निर्माण गर्ने क्रमशः गाइडहरू +- परियोजना-आधारित पाठहरूका लागि परियोजना बनाउने स्टेप-बाइ-स्टेप मार्गनिर्देशन - ज्ञान जाँचहरू -- चुनौती -- पूरक पढाइ +- एक चुनौती +- पूरक अध्ययन सामग्री - असाइनमेन्ट -- [पोस्ट-लेक्चर क्विज](https://ff-quizzes.netlify.app/en/ml/) - -> **भाषाका बारेमा नोट**: यी पाठहरू मुख्य रूपमा Python मा लेखिएका छन्, तर धेरै R मा पनि उपलब्ध छन्। R पाठ पूरा गर्नको लागि, `/solution` फोल्डरमा गई R पाठहरू खोज्नुहोस्। तिनीहरूमा .rmd एक्सटेन्सन हुन्छ जुन एक **R Markdown** फाइल हो जसलाई साधारण रूपमा `कोड चंकहरू` (R वा अन्य भाषाहरूको) र `YAML हेडर` (PDF जस्ता आउटपुटहरू कसरी ढाँचा गर्ने भनेर निर्देशन दिने) लाई `Markdown दस्तावेज`मा एम्बेड गर्ने रूपमा परिभाषा गर्न सकिन्छ। यसरी, यो डाटा साइन्सका लागि एक उत्कृष्ट लेखक फ्रेमवर्कको रूपमा काम गर्दछ किनभने यसले तपाईंलाई तपाईंको कोड, यसको आउटपुट, र तपाईंका विचारहरू Markdown मा लेख्न अनुमति दिन्छ। साथै, R Markdown दस्तावेजहरू PDF, HTML, वा Word जस्ता आउटपुट ढाँचामा रूपान्तरण गर्न सकिन्छ। -> **क्विजहरूको बारेमा एउटा नोट**: सबै क्विजहरू [Quiz App फोल्डर](../../quiz-app) मा समावेश छन्, जहाँ प्रत्येकमा तीन प्रश्नहरू सहित ५२ कूल क्विजहरू छन्। यी पाठहरू भित्र बाट लिंक गरिएको छन् तर क्विज एप्लिकेसन स्थानीय रूपमा चलाउन सकिन्छ; `quiz-app` फोल्डरमा दिएको निर्देशन पालना गरी स्थानीय रूपमा होस्ट वा Azure मा डिप्लोय गर्नुहोस्। - -| पाठ संख्या | विषय | पाठ समूह | सिकाइ लक्ष्यहरू | लिंक गरिएको पाठ | लेखक | -| :---------: | :--------------------------------------------------------------: | :-----------------------------------------: | ----------------------------------------------------------------------------------------------------------------------------- | :----------------------------------------------------------------------------------------------------------------------------------------------: | :------------------------------------: | -| ०१ | मशीन शिक्षणमा परिचय | [परिचय](1-Introduction/README.md) | मशीन शिक्षण पछाडि रहेका आधारभूत अवधारणाहरू सिक्नुहोस् | [पाठ](1-Introduction/1-intro-to-ML/README.md) | मुहम्मद | -| ०२ | मशीन शिक्षणको इतिहास | [परिचय](1-Introduction/README.md) | यस क्षेत्रमा आधारित इतिहास सिक्नुहोस् | [पाठ](1-Introduction/2-history-of-ML/README.md) | जेन र एमी | -| ०३ | fairness र मशीन शिक्षण | [परिचय](1-Introduction/README.md) | fairness सम्बन्धि महत्वपूर्ण दार्शनिक विषयहरू के हुन् जुन विद्यार्थीहरूले मशीन शिक्षण मोडेलहरू बनाउँदा र लागू गर्दा विचार गर्नुपर्छ? | [पाठ](1-Introduction/3-fairness/README.md) | टोमोमी | -| ०४ | मशीन शिक्षणका प्रविधिहरू | [परिचय](1-Introduction/README.md) | मशीन शिक्षण अनुसन्धानकर्ताहरू कुन प्रविधिहरू प्रयोग गर्छन्? | [पाठ](1-Introduction/4-techniques-of-ML/README.md) | क्रिस र जेन | -| ०५ | regression परिचय | [Regression](2-Regression/README.md) | रिग्रेसन मोडेलहरूका लागि Python र Scikit-learn बाट सुरु गर्नुहोस् | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | जेन • एरिक वान्जाउ | -| ०६ | उत्तर अमेरिकी कद्दुको मूल्य 🎃 | [Regression](2-Regression/README.md) | मशीन शिक्षण तयारीको लागि डाटा भिजुअलाइज र सफा गर्नुहोस् | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | जेन • एरिक वान्जाउ | -| ०७ | उत्तर अमेरिकी कद्दुको मूल्य 🎃 | [Regression](2-Regression/README.md) | लिनियर र पोलीनॉमियल रिग्रेसन मोडेलहरू बनाउनुहोस् | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | जेन र दिमित्री • एरिक वान्जाउ | -| ०८ | उत्तर अमेरिकी कद्दुको मूल्य 🎃 | [Regression](2-Regression/README.md) | Logistic regression मोडेल बनाउनुहोस् | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | जेन • एरिक वान्जाउ | -| ०९ | एक वेब एप 🔌 | [Web App](3-Web-App/README.md) | आफ्नो प्रशिक्षित मोडेल प्रयोग गर्न वेब एप बनाउनुहोस् | [Python](3-Web-App/1-Web-App/README.md) | जेन | -| १० | classification परिचय | [Classification](4-Classification/README.md) | डाटा सफा गर्नुहोस्, तयारी गर्नुहोस् र भिजुअलाइज गर्नुहोस्; classification परिचय | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | जेन र क्यासी • एरिक वान्जाउ | -| ११ | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [Classification](4-Classification/README.md) | classifiers परिचय | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | जेन र क्यासी • एरिक वान्जाउ | -| १२ | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [Classification](4-Classification/README.md) | थप classifiers | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | जेन र क्यासी • एरिक वान्जाउ | -| १३ | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [Classification](4-Classification/README.md) | आफ्नो मोडेल प्रयोग गरी recommender वेब एप बनाउनुहोस् | [Python](4-Classification/4-Applied/README.md) | जेन | -| १४ | clustering परिचय | [Clustering](5-Clustering/README.md) | डाटा सफा, तयारी, र भिजुअलाइज गर्नुहोस्; clustering परिचय | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | जेन • एरिक वान्जाउ | -| १५ | नाइजेरियन संगीत रुचिहरू खोज्दै 🎧 | [Clustering](5-Clustering/README.md) | K-Means clustering विधि अन्वेषण गर्नुहोस् | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | जेन • एरिक वान्जाउ | -| १६ | प्राकृतिक भाषा प्रशोधन परिचय ☕️ | [Natural language processing](6-NLP/README.md) | एउटा साधारण बोट बनाएर NLP को आधारभूत कुरा सिक्नुहोस् | [Python](6-NLP/1-Introduction-to-NLP/README.md) | स्टिफेन | -| १७ | साझा NLP कार्यहरू ☕️ | [Natural language processing](6-NLP/README.md) | भाषिक संरचनाहरू सम्बन्धि काम गर्दा आवश्यक साझा कार्यहरू बुझेर NLP ज्ञान गहिर्‍याउनुहोस् | [Python](6-NLP/2-Tasks/README.md) | स्टिफेन | -| १८ | अनुवाद र भाव विश्लेषण ♥️ | [Natural language processing](6-NLP/README.md) | Jane Austen सहित अनुवाद र भाव विश्लेषण | [Python](6-NLP/3-Translation-Sentiment/README.md) | स्टिफेन | -| १९ | युरोपका रोमांटिक होटलहरू ♥️ | [Natural language processing](6-NLP/README.md) | होटल समीक्षा सँग भाव विश्लेषण १ | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | स्टिफेन | -| २० | युरोपका रोमांटिक होटलहरू ♥️ | [Natural language processing](6-NLP/README.md) | होटल समीक्षा सँग भाव विश्लेषण २ | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | स्टिफेन | -| २१ | समय शृङ्खला पूर्वानुमान परिचय | [Time series](7-TimeSeries/README.md) | समय शृङ्खला पूर्वानुमान परिचय | [Python](7-TimeSeries/1-Introduction/README.md) | फ्रान्सेस्का | -| २२ | ⚡️ विश्व शक्तिको उपयोग ⚡️ - ARIMA सँग समय शृङ्खला पूर्वानुमान | [Time series](7-TimeSeries/README.md) | ARIMA सँग समय शृङ्खला पूर्वानुमान | [Python](7-TimeSeries/2-ARIMA/README.md) | फ्रान्सेस्का | -| २३ | ⚡️ विश्व शक्तिको उपयोग ⚡️ - SVR सँग समय शृङ्खला पूर्वानुमान | [Time series](7-TimeSeries/README.md) | Support Vector Regressor सँग समय शृङ्खला पूर्वानुमान | [Python](7-TimeSeries/3-SVR/README.md) | अनिर्बान | -| २४ | reinforcement learning परिचय | [Reinforcement learning](8-Reinforcement/README.md) | Q-Learning सँग reinforcement learning परिचय | [Python](8-Reinforcement/1-QLearning/README.md) | दिमित्री | -| २५ | पिटरलाई गडेरोबाट बचाउन मद्दत गर्नुहोस्! 🐺 | [Reinforcement learning](8-Reinforcement/README.md) | reinforcement learning Gym | [Python](8-Reinforcement/2-Gym/README.md) | दिमित्री | -| पोस्टस्क्रिप्ट | वास्तविक संसारका ML परिदृश्य र अनुप्रयोगहरू | [ML in the Wild](9-Real-World/README.md) | क्लासिकल ML का रोचक र खुलासा गर्ने वास्तविक विश्व अनुप्रयोगहरू | [पाठ](9-Real-World/1-Applications/README.md) | टिम | -| पोस्टस्क्रिप्ट | RAI ड्यासबोर्ड प्रयोग गरी ML मोडेल डिबगिङ | [ML in the Wild](9-Real-World/README.md) | Responsible AI ड्यासबोर्ड कम्पोनेन्टहरू प्रयोग गरी Machine Learning मा मोडेल डिबगिङ | [पाठ](9-Real-World/2-Debugging-ML-Models/README.md) | रुथ याकुबु | - -> [यस कोर्सका सबै थप स्रोतहरू हाम्रो Microsoft Learn संग्रहमा खोज्नुहोस्](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) +- [पश्चात-व्याख्यान क्युइज](https://ff-quizzes.netlify.app/en/ml/) +> **भाषाहरूको बारेमा एउटा नोट**: यी पाठहरू मुख्य रूपमा Python मा लेखिएका छन्, तर धेरै पाठहरू R मा पनि उपलब्ध छन्। R को एक पाठ पूरा गर्न, `/solution` फोल्डरमा जानुहोस् र R पाठहरू खोज्नुहोस्। तिनीहरूमा .rmd विस्तार हुन्छ जुन एक **R Markdown** फाइल जनाउँछ जुन सजिलैसँग `code chunks` (R वा अन्य भाषाहरूको) र `YAML header` (जसले PDF जस्ता आउटपुटहरू कसरी ढाँचा गर्ने निर्देशन दिन्छ) लाई `Markdown दस्तावेज़` मा एकीकृत गर्ने रूपमा परिभाषित गर्न सकिन्छ। यसकारण, यसले डेटा विज्ञानका लागि एउटा उत्कृष्ट लेखक ढाँचा प्रदान गर्छ किनकि यसले तपाईंलाई आफ्नो कोड, यसको आउटपुट, र तपाईका विचारहरूलाई Markdown मा लेख्न अनुमति दिँदै संयोजन गर्न अनुमति दिन्छ। थप रूपमा, R Markdown दस्तावेजहरूलाई PDF, HTML, वा Word जस्ता आउटपुट ढाँचामा प्रस्तुत गर्न सकिन्छ। + +> **क्विजहरूको बारेमा एउटा नोट**: सबै क्विजहरू [Quiz App फोल्डर](../../quiz-app) मा समावेश छन्, जसमा जम्मा ५२ वटा क्विजहरू छन् जसमा प्रत्येकमा तीन प्रश्नहरू छन्। तिनीहरू पाठहरू भित्रबाट लिंक गरिएका छन् तर क्विज एप स्थानीय रूपमा चलाउन सकिन्छ; स्थानीय रूपमा होस्ट गर्न वा Azure मा डिप्लॉय गर्नको लागि `quiz-app` फोल्डरमा दिइएको निर्देशन पालन गर्नुहोस्। + +| पाठ संख्या | विषय | पाठ वर्गीकरण | सिकाइ लक्ष्यहरू | लिंक गरिएको पाठ | लेखक | +| :---------: | :------------------------------------------------------------: | :-----------------------------------------------: | ----------------------------------------------------------------------------------------------------------------------------- | :-------------------------------------------------------------------------------------------------------------------------------------------: | :------------------------------------------------: | +| 01 | मशीन लर्निंग परिचय | [परिचय](1-Introduction/README.md) | मशीन लर्निंगका आधारभूत अवधारणाहरू सिक्नुहोस् | [पाठ](1-Introduction/1-intro-to-ML/README.md) | Muhammad | +| 02 | मशीन लर्निंगको इतिहास | [परिचय](1-Introduction/README.md) | यस क्षेत्रको इतिहास सिक्नुहोस् | [पाठ](1-Introduction/2-history-of-ML/README.md) | Jen and Amy | +| 03 | निष्पक्षता र मशीन लर्निंग | [परिचय](1-Introduction/README.md) | निष्पक्षतासँग सम्बन्धित महत्त्वपूर्ण दार्शनिक मुद्दाहरू के-के छन्? विद्यार्थीहरूले ML मोडेलहरू निर्माण र प्रयोग गर्दा के विचार गर्नु पर्छ? | [पाठ](1-Introduction/3-fairness/README.md) | Tomomi | +| 04 | मशीन लर्निंगका प्रविधिहरू | [परिचय](1-Introduction/README.md) | ML अनुसन्धानकर्ताहरूले कुन प्रविधिहरू प्रयोग गर्छन्? | [पाठ](1-Introduction/4-techniques-of-ML/README.md) | Chris and Jen | +| 05 | रिग्रेसन परिचय | [रिग्रेसन](2-Regression/README.md) | रिग्रेसन मोडेलहरूको लागि Python र Scikit-learn सुरु गर्नुहोस् | [Python](2-Regression/1-Tools/README.md) • [R](../../2-Regression/1-Tools/solution/R/lesson_1.html) | Jen • Eric Wanjau | +| 06 | उत्तर अमेरिकी कुखुरा मूल्य 🎃 | [रिग्रेसन](2-Regression/README.md) | ML को तयारीका लागि डेटा भिजुअलाइज र सफा गर्नुहोस् | [Python](2-Regression/2-Data/README.md) • [R](../../2-Regression/2-Data/solution/R/lesson_2.html) | Jen • Eric Wanjau | +| 07 | उत्तर अमेरिकी कुखुरा मूल्य 🎃 | [रिग्रेसन](2-Regression/README.md) | लीनियर र पोलिनोमियल रिग्रेसन मोडेलहरू बनाउनुहोस् | [Python](2-Regression/3-Linear/README.md) • [R](../../2-Regression/3-Linear/solution/R/lesson_3.html) | Jen and Dmitry • Eric Wanjau | +| 08 | उत्तर अमेरिकी कुखुरा मूल्य 🎃 | [रिग्रेसन](2-Regression/README.md) | एक लगिस्टिक रिग्रेसन मोडेल बनाउनुहोस् | [Python](2-Regression/4-Logistic/README.md) • [R](../../2-Regression/4-Logistic/solution/R/lesson_4.html) | Jen • Eric Wanjau | +| 09 | वेब एप्लिकेशन 🔌 | [वेब एप](3-Web-App/README.md) | तपाईंको प्रशिक्षण प्राप्त मोडेल प्रयोग गर्न वेब एप्लिकेशन बनाउनुहोस् | [Python](3-Web-App/1-Web-App/README.md) | Jen | +| 10 | वर्गीकरण परिचय | [वर्गीकरण](4-Classification/README.md) | आफ्नो डेटा सफा, तयारी र भिजुअलाइज गर्नुहोस्; वर्गीकरण परिचय | [Python](4-Classification/1-Introduction/README.md) • [R](../../4-Classification/1-Introduction/solution/R/lesson_10.html) | Jen and Cassie • Eric Wanjau | +| 11 | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [वर्गीकरण](4-Classification/README.md) | वर्गीकर्ताहरूको परिचय | [Python](4-Classification/2-Classifiers-1/README.md) • [R](../../4-Classification/2-Classifiers-1/solution/R/lesson_11.html) | Jen and Cassie • Eric Wanjau | +| 12 | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [वर्गीकरण](4-Classification/README.md) | थप वर्गीकर्ताहरू | [Python](4-Classification/3-Classifiers-2/README.md) • [R](../../4-Classification/3-Classifiers-2/solution/R/lesson_12.html) | Jen and Cassie • Eric Wanjau | +| 13 | स्वादिष्ट एशियाली र भारतीय खाना 🍜 | [वर्गीकरण](4-Classification/README.md) | तपाईको मोडेल प्रयोग गरी सिफारिस गर्ने वेब एप्लिकेशन बनाउनुहोस् | [Python](4-Classification/4-Applied/README.md) | Jen | +| 14 | क्लस्टरिङ परिचय | [क्लस्टरिङ](5-Clustering/README.md) | आफ्नो डेटा सफा, तयारी र भिजुअलाइज गर्नुहोस्; क्लस्टरिङ परिचय | [Python](5-Clustering/1-Visualize/README.md) • [R](../../5-Clustering/1-Visualize/solution/R/lesson_14.html) | Jen • Eric Wanjau | +| 15 | नाइजेरियन संगीत रुचिहरू अन्वेषण 🎧 | [क्लस्टरिङ](5-Clustering/README.md) | K-Means क्लस्टरिङ विधि अन्वेषण गर्नुहोस् | [Python](5-Clustering/2-K-Means/README.md) • [R](../../5-Clustering/2-K-Means/solution/R/lesson_15.html) | Jen • Eric Wanjau | +| 16 | प्राकृतिक भाषा प्रशोधन परिचय ☕️ | [प्राकृतिक भाषा प्रशोधन](6-NLP/README.md) | सरल बोट निर्माण गरेर NLP का आधारहरू सिक्नुहोस् | [Python](6-NLP/1-Introduction-to-NLP/README.md) | Stephen | +| 17 | सामान्य NLP कार्यहरू ☕️ | [प्राकृतिक भाषा प्रशोधन](6-NLP/README.md) | भाषा संरचनाहरूको साथ काम गर्दा आवश्यक सामान्य कार्यहरू बुझेर NLP ज्ञान गहिरो गर्नुहोस् | [Python](6-NLP/2-Tasks/README.md) | Stephen | +| 18 | अनुवाद र भावना विश्लेषण ♥️ | [प्राकृतिक भाषा प्रशोधन](6-NLP/README.md) | Jane Austen सँग अनुवाद र भावना विश्लेषण | [Python](6-NLP/3-Translation-Sentiment/README.md) | Stephen | +| 19 | युरोपका रमणीय होटलहरू ♥️ | [प्राकृतिक भाषा प्रशोधन](6-NLP/README.md) | होटेल समीक्षाहरूसँग भावना विश्लेषण १ | [Python](6-NLP/4-Hotel-Reviews-1/README.md) | Stephen | +| 20 | युरोपका रमणीय होटलहरू ♥️ | [प्राकृतिक भाषा प्रशोधन](6-NLP/README.md) | होटेल समीक्षाहरूसँग भावना विश्लेषण २ | [Python](6-NLP/5-Hotel-Reviews-2/README.md) | Stephen | +| 21 | टाइम सिरिज पूर्वानुमान परिचय | [टाइम सिरिज](7-TimeSeries/README.md) | टाइम सिरिज पूर्वानुमानको परिचय | [Python](7-TimeSeries/1-Introduction/README.md) | Francesca | +| 22 | ⚡️ विश्व ऊर्जा उपयोग ⚡️ - ARIMA संग टाइम सिरिज पूर्वानुमान | [टाइम सिरिज](7-TimeSeries/README.md) | ARIMA सहित टाइम सिरिज पूर्वानुमान | [Python](7-TimeSeries/2-ARIMA/README.md) | Francesca | +| 23 | ⚡️ विश्व ऊर्जा उपयोग ⚡️ - SVR संग टाइम सिरिज पूर्वानुमान | [टाइम सिरिज](7-TimeSeries/README.md) | Support Vector Regressor सहित टाइम सिरिज पूर्वानुमान | [Python](7-TimeSeries/3-SVR/README.md) | Anirban | +| 24 | एनफोर्समेन्मेन्ट लर्निंग परिचय | [एनफोर्समेन्मेन्ट लर्निंग](8-Reinforcement/README.md) | Q-Learning सहित एनफोर्समेन्मेन्ट लर्निंगको परिचय | [Python](8-Reinforcement/1-QLearning/README.md) | Dmitry | +| 25 | Peter लाई बघाबाट बचाउन मद्दत गर्नुहोस्! 🐺 | [एनफोर्समेन्मेन्ट लर्निंग](8-Reinforcement/README.md) | एनफोर्समेन्मेन्ट लर्निंग जिम | [Python](8-Reinforcement/2-Gym/README.md) | Dmitry | +| पोस्टस्क्रिप्ट | वास्तविक-विश्व ML परिदृश्य र अनुप्रयोगहरू | [बनाउ जङ्गलमा ML](9-Real-World/README.md) | शास्त्रीय ML का रोचक र खुल्ला वास्तविक-विश्व अनुप्रयोगहरू | [पाठ](9-Real-World/1-Applications/README.md) | Team | +| पोस्टस्क्रिप्ट | RAI ड्यासबोर्ड प्रयोग गरी ML मा मोडेल डिबगिङ | [बनाउ जङ्गलमा ML](9-Real-World/README.md) | Responsible AI ड्यासबोर्ड कम्पोनेन्ट्स प्रयोग गरी मशीन लर्निंग मोडेल डिबगिङ | [पाठ](9-Real-World/2-Debugging-ML-Models/README.md) | Ruth Yakubu | + +> [यस कोर्सको लागि सबै थप स्रोतहरू हाम्रो Microsoft Learn संग्रहमा फेला पार्नुहोस्](https://learn.microsoft.com/en-us/collections/qrqzamz1nn2wx3?WT.mc_id=academic-77952-bethanycheum) ## अफलाइन पहुँच -तपाईं यस दस्तावेजलाई अफलाइनमा [Docsify](https://docsify.js.org/#/) प्रयोग गरेर चलाउन सक्नुहुन्छ। यो रिपोजिटोरी फ्लोक गरेर, तपाइँको स्थानीय मेसिनमा [Docsify इन्स्टल](https://docsify.js.org/#/quickstart) गर्नुहोस्, र त्यसपछि यो रिपोको root फोल्डरमा `docsify serve` टाइप गर्नुहोस्। वेबसाइट तपाईँको स्थानीय होस्टमा पोर्ट 3000 मा सर्भ हुनेछ: `localhost:3000`। +तपाईं [Docsify](https://docsify.js.org/#/) प्रयोग गरी यो कागजात अफलाइनमा चलाउन सक्नुहुन्छ। यो रेपो फोर्क गर्नुहोस्, आफ्नो स्थानीय मेसिनमा [Docsify स्थापना गर्नुहोस्](https://docsify.js.org/#/quickstart), र त्यसपछि यो रेपोको मूल फोल्डरमा `docsify serve` टाइप गर्नुहोस्। वेबसाइट तपाइँको स्थानीयहोस्टमा पोर्ट 3000 मा सेवा हुनेछ: `localhost:3000`। -## PDF हरू +## PDFs -पाठ्यक्रमको PDF यहाँ लिंकसहित पाउनुहोस्: [यहाँ](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf)। +पाठ्यक्रमको PDF फाइल लिंक सहित [यहाँ](https://microsoft.github.io/ML-For-Beginners/pdf/readme.pdf) फेला पार्नुहोस्। ## 🎒 अन्य कोर्सहरू -हाम्रो टिमले अन्य कोर्सहरू उत्पादन गरेको छ! जाँच गर्नुहोस्: +हाम्रो टोलीले अन्य कोर्सहरू निर्माण गर्छ! हेर्नुहोस्: ### LangChain @@ -170,52 +180,39 @@ Microsoft का क्लाउड एड्भोकेटहरूले १ [![LangChain for Beginners](https://img.shields.io/badge/LangChain%20for%20Beginners-22C55E?style=for-the-badge&labelColor=E5E7EB&color=0553D6)](https://github.com/microsoft/langchain-for-beginners?WT.mc_id=m365-94501-dwahlin) --- -### Azure / Edge / MCP / एजेन्टहरू +### Azure / Edge / MCP / Agents [![AZD for Beginners](https://img.shields.io/badge/AZD%20for%20Beginners-0078D4?style=for-the-badge&labelColor=E5E7EB&color=0078D4)](https://github.com/microsoft/AZD-for-beginners?WT.mc_id=academic-105485-koreyst) [![Edge AI for Beginners](https://img.shields.io/badge/Edge%20AI%20for%20Beginners-00B8E4?style=for-the-badge&labelColor=E5E7EB&color=00B8E4)](https://github.com/microsoft/edgeai-for-beginners?WT.mc_id=academic-105485-koreyst) -[![MCP for Beginners](https://img.shields.io/badge/MCP%20for%20Beginners-009688?style=for-the-badge&labelColor=E5E7EB&color=009688)](https://github.com/microsoft/mcp-for-beginners?WT.mc_id=academic-105485-koreyst) -[![AI Agents for Beginners](https://img.shields.io/badge/AI%20Agents%20for%20Beginners-00C49A?style=for-the-badge&labelColor=E5E7EB&color=00C49A)](https://github.com/microsoft/ai-agents-for-beginners?WT.mc_id=academic-105485-koreyst) - --- - -### Generative AI श्रृंखला -[![शुरुवातीहरूका लागि जनरेटिव AI](https://img.shields.io/badge/Generative%20AI%20for%20Beginners-8B5CF6?style=for-the-badge&labelColor=E5E7EB&color=8B5CF6)](https://github.com/microsoft/generative-ai-for-beginners?WT.mc_id=academic-105485-koreyst) -[![जनरेटिव AI (.NET)](https://img.shields.io/badge/Generative%20AI%20(.NET)-9333EA?style=for-the-badge&labelColor=E5E7EB&color=9333EA)](https://github.com/microsoft/Generative-AI-for-beginners-dotnet?WT.mc_id=academic-105485-koreyst) -[![जनरेटिव AI (Java)](https://img.shields.io/badge/Generative%20AI%20(Java)-C084FC?style=for-the-badge&labelColor=E5E7EB&color=C084FC)](https://github.com/microsoft/generative-ai-for-beginners-java?WT.mc_id=academic-105485-koreyst) -[![जनरेटिव AI (JavaScript)](https://img.shields.io/badge/Generative%20AI%20(JavaScript)-E879F9?style=for-the-badge&labelColor=E5E7EB&color=E879F9)](https://github.com/microsoft/generative-ai-with-javascript?WT.mc_id=academic-105485-koreyst) + +### जेनेरेटिभ एआई शृंखला --- ### मुख्य सिकाइ -[![शुरुवातीहरूका लागि ML](https://img.shields.io/badge/ML%20for%20Beginners-22C55E?style=for-the-badge&labelColor=E5E7EB&color=22C55E)](https://aka.ms/ml-beginners?WT.mc_id=academic-105485-koreyst) -[![शुरुवातीहरूका लागि डेटा साइन्स](https://img.shields.io/badge/Data%20Science%20for%20Beginners-84CC16?style=for-the-badge&labelColor=E5E7EB&color=84CC16)](https://aka.ms/datascience-beginners?WT.mc_id=academic-105485-koreyst) -[![शुरुवातीहरूका लागि AI](https://img.shields.io/badge/AI%20for%20Beginners-A3E635?style=for-the-badge&labelColor=E5E7EB&color=A3E635)](https://aka.ms/ai-beginners?WT.mc_id=academic-105485-koreyst) -[![शुरुवातीहरूका लागि साइबर सुरक्षा](https://img.shields.io/badge/Cybersecurity%20for%20Beginners-F97316?style=for-the-badge&labelColor=E5E7EB&color=F97316)](https://github.com/microsoft/Security-101?WT.mc_id=academic-96948-sayoung) -[![शुरुवातीहरूका लागि वेब विकास](https://img.shields.io/badge/Web%20Dev%20for%20Beginners-EC4899?style=for-the-badge&labelColor=E5E7EB&color=EC4899)](https://aka.ms/webdev-beginners?WT.mc_id=academic-105485-koreyst) -[![शुरुवातीहरूका लागि IoT](https://img.shields.io/badge/IoT%20for%20Beginners-14B8A6?style=for-the-badge&labelColor=E5E7EB&color=14B8A6)](https://aka.ms/iot-beginners?WT.mc_id=academic-105485-koreyst) -[![शुरुवातीहरूका लागि XR विकास](https://img.shields.io/badge/XR%20Development%20for%20Beginners-38BDF8?style=for-the-badge&labelColor=E5E7EB&color=38BDF8)](https://github.com/microsoft/xr-development-for-beginners?WT.mc_id=academic-105485-koreyst) --- -### कोपायलट श्रृंखला -[![AI पेयर्ड प्रोग्रामिङका लागि कोपायलट](https://img.shields.io/badge/Copilot%20for%20AI%20Paired%20Programming-FACC15?style=for-the-badge&labelColor=E5E7EB&color=FACC15)](https://aka.ms/GitHubCopilotAI?WT.mc_id=academic-105485-koreyst) -[![C#/.NET का लागि कोपायलट](https://img.shields.io/badge/Copilot%20for%20C%23/.NET-FBBF24?style=for-the-badge&labelColor=E5E7EB&color=FBBF24)](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers?WT.mc_id=academic-105485-koreyst) -[![कोपायलट साहसिक](https://img.shields.io/badge/Copilot%20Adventure-FDE68A?style=for-the-badge&labelColor=E5E7EB&color=FDE68A)](https://github.com/microsoft/CopilotAdventures?WT.mc_id=academic-105485-koreyst) - +### कोपाइलट शृंखला -## मद्दत लिनुहोस् +## सहयोग पाउनुहोस् -यदि तपाईं अड्कनुहुन्छ वा AI अनुप्रयोगहरू निर्माण गर्ने बारे कुनै प्रश्नहरू छन् भने। MCP बारे छलफलमा साथी सिक्दै गरेका र अनुभवी विकासकर्ताहरूसँग जोडिनुहोस्। यो एक सहयोगी समुदाय हो जहाँ प्रश्नहरू स्वागतयोग्य छन् र ज्ञान स्वतन्त्र रूपमा साझा गरिन्छ। +यदि तपाईं अड्कनु भयो वा एआई एपहरू बनाउने बारे कुनै प्रश्न छ भने। साथी सिक्नेहरू र अनुभवी विकासकर्ताहरूसँग MCP सम्बन्धी छलफलमा सामेल हुनुहोस्। यो सहयोगी समुदाय हो जहाँ प्रश्नहरू स्वागत छन् र ज्ञान निःशुल्क साझेदारी गरिन्छ। [![Microsoft Foundry Discord](https://dcbadge.limes.pink/api/server/nTYy5BXMWG)](https://discord.gg/nTYy5BXMWG) -यदि तपाईंलाई उत्पादन प्रतिक्रिया वा त्रुटिहरू छन् भने निर्माण गर्दा भ्रमण गर्नुहोस्: +यदि तपाईंसँग उत्पादन प्रतिक्रिया छ वा निर्माण गर्दा त्रुटिहरू छन् भने भ्रमण गर्नुहोस्: [![Microsoft Foundry Developer Forum](https://img.shields.io/badge/GitHub-Microsoft_Foundry_Developer_Forum-blue?style=for-the-badge&logo=github&color=000000&logoColor=fff)](https://aka.ms/foundry/forum) +## अतिरिक्त सिकाइ सुझावहरू + +- प्रत्येक पाठ पछि नोटबुकहरू समीक्षा गर्नुहोस् बुझाईका लागि। +- आफ्नै अभ्यासमा एल्गोरिदमहरू लागू गर्ने अभ्यास गर्नुहोस्। +- सिकेका अवधारणाहरू प्रयोग गरी वास्तविक विश्वका डेटा सेटहरू अन्वेषण गर्नुहोस्। --- -**अस्वीकरण**: -यो दस्तावेज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) प्रयोग गरी अनुवाद गरिएको हो। हामी सटीकताको प्रयास गर्छौं भने पनि, कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादमा त्रुटि वा असङ्गतिहरू हुन सक्नेछन्। मूल दस्तावेज यसको मूल भाषामा आधिकारिक स्रोतमै मानिनु पर्छ। महत्वपूर्ण जानकारीको लागि व्यावसायिक मानवीय अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न हुने कुनै पनि गलत बुझाइ वा गलत व्याख्याका लागि हामी उत्तरदायी छैनौं। +**अस्वीकरण**: +यो दस्तावेज AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) को प्रयोग गरेर अनुवाद गरिएको हो। हामी सही अनुवादको प्रयास गर्छौं, तर कृपया ध्यान दिनुहोस् कि स्वचालित अनुवादमा त्रुटि वा अशुद्धता हुनसक्छ। मूल दस्तावेज यसको मौलिक भाषामा नै आधिकारिक स्रोत मानिनु पर्छ। महत्वपूर्ण जानकारीका लागि पेशागत मानवीय अनुवाद सिफारिस गरिन्छ। यस अनुवादको प्रयोगबाट उत्पन्न कुनै पनि गलतफहमी वा भ्रान्तिको लागि हामी जिम्मेवार हौंँन। \ No newline at end of file