Il s'agit de l'application Linux MADDPG, dont la dernière version est téléchargeable sous le nom maddpgsourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée MADDPG avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
MADDPG
DESCRIPTION:
MADDPG (Multi-Agent Deep Deterministic Policy Gradient) est la version officielle du code de l'article d'OpenAI « Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments ». Ce référentiel implémente un algorithme d'apprentissage par renforcement multi-agents qui étend DDPG aux scénarios où plusieurs agents interagissent dans des environnements partagés. Chaque agent possède sa propre politique, mais l'apprentissage utilise des critiques centralisées conditionnées par les observations et les actions de tous les agents, permettant ainsi l'apprentissage dans des contextes coopératifs, compétitifs et mixtes. Le code est basé sur TensorFlow et s'intègre aux environnements de particules multi-agents (MPE) à des fins d'analyse comparative. Les chercheurs peuvent l'utiliser pour reproduire les expériences présentées dans l'article, qui illustrent comment les agents apprennent des comportements tels que la coordination, la compétition et la communication. Bien qu'archivé, MADDPG reste une référence largement citée dans la recherche sur l'apprentissage par renforcement multi-agents et a inspiré de nouveaux développements algorithmiques.
Caractéristiques
- Mise en œuvre de DDPG multi-agents avec critiques centralisées
- Prend en charge les paramètres coopératifs, compétitifs et mixtes
- Pipeline de formation basé sur TensorFlow pour le RL multi-agent
- Compatible avec les environnements de particules multi-agents (MPE)
- Scripts pour reproduire les résultats de l'article original
- Implémentation de référence pour la recherche en RL multi-agents
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/maddpg.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.