You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
ML-For-Beginners/8-Reinforcement/translations
Seryozni 2020f144af
Translated README files to all the topics to Russian
3 years ago
..
README.es.md re-numbering lesson groups 3 years ago
README.ru.md Translated README files to all the topics to Russian 3 years ago

README.ru.md

Введение в reinforcement learning

Reinforcement learning (обучение с подкреплением), RL, рассматривается как одна из основных парадигм машинного обучения, наряду с supervised learning и unsupervised learning. RL - это все о решениях: принятие правильных решений или, по крайней мере, извлечение уроков из них.

Представьте, что у вас есть смоделированная среда, такая как фондовый рынок. Что произойдет, если вы введете определенное правило. Имеет ли это положительный или отрицательный эффект? Если происходит что-то негативное, вам нужно принять это негативное подкрепление, извлечь из него урок и изменить курс. Если это положительный результат, вам нужно использовать это положительное подкрепление.

peter and the wolf

Петьке и его друзьям нужно спастись от голодного волка! Автор изображения Jen Looper

Региональная тема: Петя и Волк (Россия)

Петя и Волк - музыкальная сказка русского композитора [Сергея Прокофьева] (https://en.wikipedia.org/wiki/Sergei_Prokofiev). Это история о юном пионере Пете, который смело выходит из своего дома на лесную поляну, чтобы преследовать волка. В этом разделе мы обучим алгоритмы машинного обучения, которые помогут Пете:

  • Исследуйте окрестности и создайте оптимальную навигационную карту.
  • Учитесь пользоваться скейтбордом и балансировать на нем, чтобы двигаться быстрее.

[Петя и Волк] (https://www.youtube.com/watch?v=Fmi5zHg4QSM)

🎥 Нажмите на изображение выше, чтобы послушать Петю и Волка Прокофьева

Обучение с подкреплением

В предыдущих разделах вы видели два примера проблем машинного обучения:

  • Supervised, где у нас есть наборы данных, которые предлагают примеры решений проблемы, которую мы хотим решить. Классификация и [регрессия] (../ 2-Регрессия / README.md) являются контролируемыми учебными задачами.
  • Unsupervised, в котором у нас нет помеченных данных обучения. Основным примером unsupervised learning является Кластеризация.

В этом разделе мы познакомим вас с новым типом задач обучения, которые не требуют маркированных данных обучения. Есть несколько типов таких проблем:

  • Semi-supervised learning, где у нас есть много немаркированных данных, которые можно использовать для предварительного обучения модели.
  • Reinforcement learning, в котором агент учится вести себя, проводя эксперименты в некоторой моделируемой среде.

Пример - компьютерная игра

Предположим, вы хотите научить компьютер играть в игру, например, в шахматы или Супер Марио. Чтобы компьютер мог играть в игру, нам нужно, чтобы он предсказывал, какой ход сделать в каждом из игровых состояний. Хотя это может показаться проблемой классификации, это не так - потому что у нас нет набора данных с состояниями и соответствующими действиями. Хотя у нас могут быть некоторые данные, такие как существующие шахматные матчи или записи игроков, играющих в Super Mario, вполне вероятно, что эти данные не будут в достаточной степени охватывать достаточно большое количество возможных состояний.

Вместо поиска существующих игровых данных Обучение с подкреплением (RL) основано на идее заставить компьютер играть много раз и наблюдать за результатом. Таким образом, чтобы применить обучение с подкреплением, нам нужны две вещи:

  • Среда и симулятор, которые позволяют нам играть в игру много раз. Этот симулятор будет определять все правила игры, а также возможные состояния и действия.

  • Функция вознаграждения, которая сообщит нам, насколько хорошо мы сделали каждый ход или игру.

Основное различие между другими типами машинного обучения и RL заключается в том, что в RL мы обычно не знаем, выиграем мы или проиграем, пока не закончим игру. Таким образом, мы не можем сказать, является ли конкретный ход хорошим или нет - мы получаем награду только в конце игры. И наша цель - разработать алгоритмы, которые позволят нам обучать модель в неопределенных условиях. Мы узнаем об одном алгоритме RL под названием Q-Learning.

Уроки

  1. Введение в обучение с подкреплением и Q-Learning
  2. Использование тренажерного зала

Благодарности

«Введение в обучение с подкреплением» написано сДмитрием Сошниковым