Skip to content
sofian edited this page Nov 7, 2011 · 1 revision

Objectifs

  1. Pouvoir facilement changer entre différents environnements (2 modes: simulation vs AVR)
  • Agent reste le même
  • Environnement interchangeable AVR vs simulation
  • Switch facile entre les deux modes (vérification)
  1. Bien géré sur AVR
  • Léger en taille mémoire
  • Allocation statique
  1. Modulaire
  • Possibilité de changer facilement la fonction de reward
  1. Multi-paradigme
  • Procédural (facile à faire ie. sous-classe C++)
  • FSM

Intégration possible dans RL-Glue

http://rl-glue.googlecode.com

RL-Glue propose un framework multi-langage pour le Reinforcement learning. Par exemple la RL-library est compatible avec: http://library.rl-community.org/

Je crois qu'il serait impossible d'utiliser RL-Glue "as is" car c'est un peu trop lourd (gros) mais d'après ce que je vois ça concernerait seulement quelques légers détails.

Voici les options:

  1. Créer une version "lightweight-C++" de la librairie
    • Facile à faire
  • +(?) Compatible avec RL-Glue (quoique ce n'est pas sûr car les codes écrits pour la librairie C++ ne seraient pas nécessairement compatibles avec notre librairie)
    • Pas orienté objet
  1. S'inspirer simplement de la librairie
    • Facile à faire
    • Orienté objet
    • Pas compatible avec RL-Glue (mais c'est peut-être pas très grave)
Clone this wiki locally