Dies ist die Linux-App namens MADDPG, deren neueste Version als maddpgsourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens MADDPG mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
MADDPG
Ad
BESCHREIBUNG
MADDPG (Multi-Agent Deep Deterministic Policy Gradient) ist die offizielle Code-Veröffentlichung aus dem OpenAI-Artikel „Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments“. Das Repository implementiert einen Multi-Agent-Reinforcement-Learning-Algorithmus, der DDPG auf Szenarien erweitert, in denen mehrere Agenten in gemeinsamen Umgebungen interagieren. Jeder Agent hat seine eigene Richtlinie, aber das Training verwendet zentralisierte Kritiker, die auf den Beobachtungen und Aktionen aller Agenten basieren, wodurch Lernen in kooperativen, kompetitiven und gemischten Umgebungen ermöglicht wird. Der Code basiert auf TensorFlow und lässt sich zum Benchmarking in die Multiagent Particle Environments (MPE) integrieren. Forscher können ihn verwenden, um die im Artikel vorgestellten Experimente zu reproduzieren, die zeigen, wie Agenten Verhaltensweisen wie Koordination, Wettbewerb und Kommunikation erlernen. Obwohl archiviert, bleibt MADDPG eine häufig zitierte Grundlage in der Multi-Agent-Reinforcement-Learning-Forschung und hat weitere algorithmische Entwicklungen inspiriert.
Eigenschaften
- Implementierung von Multi-Agent DDPG mit zentralisierten Kritikern
- Unterstützt kooperative, kompetitive und gemischte Agenteneinstellungen
- TensorFlow-basierte Trainingspipeline für Multi-Agent-RL
- Kompatibel mit Multiagent Particle Environments (MPE)
- Skripte zur Reproduktion der Ergebnisse aus dem Originalpapier
- Referenzimplementierung für die Forschung im Multi-Agenten-RL
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/maddpg.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.