diff --git a/8-Reinforcement/2-Gym/translations/assignment.es.md b/8-Reinforcement/2-Gym/translations/assignment.es.md index 2f2fd8cb..4ca3c1a7 100644 --- a/8-Reinforcement/2-Gym/translations/assignment.es.md +++ b/8-Reinforcement/2-Gym/translations/assignment.es.md @@ -41,4 +41,4 @@ Adapta nuestro algoritmo de aprendizaje reforzado para resolver el problema del | Criterio | Ejemplar | Adecuado | Necesita mejorar | | -------- | --------- | -------- | ----------------- | -| | El algoritmo Q-Learning se adaptó de forma exitosa a partir del ejemplo CartPole, con mínimas modificaciones al código, el cual es capaz de resolver el problema al capturar la bandera con menos de 200 pasos. | Se adoptó un nuevo algoritmo Q-Learning de internet, pero está bien documentado; o se adoptó el algoritmo existente, pero no cumple los resultados deseados | El estudiante no fue capaz de adoptar algún algoritmo de forma exitosa, pero ha hecho pasos substanciales hacia la solución (implementó la discretización de estado, la estructura de datos de Q-Table, etc.) | +| | El algoritmo Q-Learning se adaptó de forma exitosa a partir del ejemplo CartPole, con mínimas modificaciones al código, el cual es capaz de resolver el problema al capturar la bandera con menos de 200 pasos. | Se adoptó un nuevo algoritmo Q-Learning de internet, pero está bien documentado; o se adoptó el algoritmo existente, pero no cumple los resultados deseados | El estudiante no fue capaz de adoptar ningún algoritmo de forma exitosa, pero ha hecho pasos substanciales hacia la solución (implementó la discretización de estado, la estructura de datos de Q-Table, etc.) |