4.5 KiB
Bardziej Realistyczny Świat
W naszej sytuacji Piotr mógł poruszać się niemal bez zmęczenia czy głodu. W bardziej realistycznym świecie musi od czasu do czasu usiąść i odpocząć, a także coś zjeść. Uczyńmy nasz świat bardziej realistycznym, wprowadzając następujące zasady:
- Przemieszczając się z jednego miejsca do drugiego, Piotr traci energię i zyskuje zmęczenie.
- Piotr może odzyskać energię, jedząc jabłka.
- Piotr może pozbyć się zmęczenia, odpoczywając pod drzewem lub na trawie (czyli wchodząc na pole planszy z drzewem lub trawą - zielone pole).
- Piotr musi znaleźć i zabić wilka.
- Aby zabić wilka, Piotr musi mieć odpowiedni poziom energii i zmęczenia, w przeciwnym razie przegrywa walkę.
Instrukcje
Użyj oryginalnego notebooka notebook.ipynb jako punktu wyjścia dla swojego rozwiązania.
Zmodyfikuj funkcję nagrody zgodnie z zasadami gry, uruchom algorytm uczenia ze wzmocnieniem, aby nauczyć się najlepszej strategii wygrywania gry, i porównaj wyniki losowego spaceru z wynikami swojego algorytmu pod względem liczby wygranych i przegranych gier.
Note: W Twoim nowym świecie stan jest bardziej złożony i oprócz pozycji człowieka obejmuje również poziomy zmęczenia i energii. Możesz zdecydować się na reprezentowanie stanu jako krotki (Plansza, energia, zmęczenie), zdefiniować klasę dla stanu (możesz również chcieć wyprowadzić ją z
Board
), lub nawet zmodyfikować oryginalną klasęBoard
w pliku rlboard.py.
W swoim rozwiązaniu zachowaj kod odpowiedzialny za strategię losowego spaceru i porównaj wyniki swojego algorytmu z losowym spacerem na końcu.
Note: Możesz potrzebować dostosować hiperparametry, aby wszystko działało, szczególnie liczbę epok. Ponieważ sukces w grze (walka z wilkiem) jest rzadkim wydarzeniem, możesz spodziewać się znacznie dłuższego czasu treningu.
Kryteria Oceny
Kryterium | Wzorowe | Wystarczające | Wymaga Poprawy |
---|---|---|---|
Notebook zawiera definicję nowych zasad świata, algorytm Q-Learning oraz tekstowe wyjaśnienia. Q-Learning znacząco poprawia wyniki w porównaniu do losowego spaceru. | Notebook jest przedstawiony, Q-Learning jest zaimplementowany i poprawia wyniki w porównaniu do losowego spaceru, ale nie znacząco; lub notebook jest słabo udokumentowany, a kod nie jest dobrze zorganizowany. | Podjęto próbę redefinicji zasad świata, ale algorytm Q-Learning nie działa, lub funkcja nagrody nie jest w pełni zdefiniowana. |
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy wszelkich starań, aby tłumaczenie było precyzyjne, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.