-
Notifications
You must be signed in to change notification settings - Fork 6
Home
sofian edited this page Jul 11, 2011
·
25 revisions
- Pouvoir facilement changer entre différents environnements (2 modes: simulation vs AVR)
- Agent reste le même
- Environnement interchangeable AVR vs simulation
- Switch facile entre les deux modes (vérification)
- Bien géré sur AVR
- Léger en taille mémoire
- Allocation statique
- Modulaire
- Possibilité de changer facilement la fonction de reward
(pour le moment)
- Limité à un seul agent
- Pas multi-paradigmes ie. seulement RL
- Éventuellement il faudrait intégrer procédural et FSM
RL-Glue propose un framework multi-langage pour le Reinforcement learning. Par exemple la RL-library est compatible avec: http://library.rl-community.org/
Je crois qu'il serait impossible d'utiliser RL-Glue "as is" car c'est un peu trop lourd (gros) mais d'après ce que je vois ça concernerait seulement quelques légers détails.
Voici les options:
- Créer une version "lightweight-C++" de la librairie
-
- Facile à faire
- +(?) Compatible avec RL-Glue (quoique ce n'est pas sûr car les codes écrits pour la librairie C++ ne seraient pas nécessairement compatibles avec notre librairie)
-
- Pas orienté objet
- S'inspirer simplement de la librairie
-
- Facile à faire
-
- Orienté objet
-
- Pas compatible avec RL-Glue (mais c'est peut-être pas très grave)