Aceasta este aplicația Linux numită MADDPG, a cărei ultimă versiune poate fi descărcată sub numele maddpgsourcecode.tar.gz. Poate fi rulată online în furnizorul de găzduire gratuită OnWorks pentru stații de lucru.
Descarcă și rulează online această aplicație numită MADDPG cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
MADDPG
DESCRIERE:
MADDPG (Multi-Agent Deterministic Policy Gradient) este versiunea oficială a codului din lucrarea OpenAI, Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments. Depozitul implementează un algoritm de învățare prin armare multi-agent care extinde DDPG la scenarii în care mai mulți agenți interacționează în medii partajate. Fiecare agent are propria politică, dar antrenamentul utilizează critici centralizați, condiționate de observațiile și acțiunile tuturor agenților, permițând învățarea în contexte cooperative, competitive și mixte. Codul este construit pe TensorFlow și se integrează cu Multiagent Particle Environments (MPE) pentru benchmarking. Cercetătorii îl pot folosi pentru a reproduce experimentele prezentate în lucrare, care demonstrează modul în care agenții învață comportamente precum coordonarea, competiția și comunicarea. Deși arhivat, MADDPG rămâne o bază citată pe scară largă în cercetarea învățării prin armare multi-agent și a inspirat dezvoltări algoritmice ulterioare.
Categorii
- Implementarea DDPG-ului multi-agent cu critici centralizați
- Suportă setări cooperative, competitive și cu agenți mixți
- Conductă de antrenament bazată pe TensorFlow pentru RL multi-agent
- Compatibil cu mediile cu particule multiagent (MPE)
- Scripturi pentru reproducerea rezultatelor din lucrarea originală
- Implementare de referință pentru cercetare în RL multi-agent
Limbaj de programare
Piton
Categorii
Aceasta este o aplicație care poate fi descărcată și de la https://sourceforge.net/projects/maddpg.mirror/. A fost găzduită în OnWorks pentru a putea fi rulată online în cel mai simplu mod de pe unul dintre sistemele noastre de operare gratuite.