Dies ist die Linux-App namens RLax, deren neueste Version als RLax0.1.8sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens RLax mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS:
RLax
BESCHREIBUNG:
RLax (ausgesprochen „relax“) ist eine von Google DeepMind entwickelte JAX-basierte Bibliothek, die wiederverwendbare mathematische Bausteine für die Konstruktion von Reinforcement-Learning-Agenten (RL) bereitstellt. Statt vollständige Algorithmen zu implementieren, konzentriert sich RLax auf die zentralen funktionalen Operationen, die RL-Methoden zugrunde liegen – wie die Berechnung von Wertfunktionen, Renditen, Policy-Gradienten und Verlusttermen – und ermöglicht es Forschern, flexibel eigene Agenten zusammenzustellen. Es unterstützt sowohl On-Policy- als auch Off-Policy-Learning sowie wertbasierte, policy-basierte und modellbasierte Ansätze. RLax ist mit JAX vollständig JIT-kompilierbar und ermöglicht so eine leistungsstarke Ausführung auf CPU-, GPU- und TPU-Backends. Die Bibliothek implementiert Tools für Bellman-Gleichungen, Renditeverteilungen, allgemeine Wertfunktionen und Policy-Optimierung in kontinuierlichen und diskreten Aktionsräumen. Es lässt sich nahtlos in DeepMinds Haiku (zur Definition neuronaler Netzwerke) und Optax (zur Optimierung) integrieren und ist somit eine Schlüsselkomponente in modularen RL-Pipelines.
Eigenschaften
- Modulare Grundelemente des bestärkenden Lernens (Werte, Renditen und Richtlinien)
- JAX-optimiert für GPU/TPU-Beschleunigung und automatische Differenzierung
- Unterstützt On-Policy- und Off-Policy-Lernparadigmen
- Implementiert Verteilungswertfunktionen und allgemeine Wertfunktionen
- Integriert mit Haiku und Optax für neuronale Netzwerke und Optimierungspipelines
- Umfassende Tests und Beispiele zur Reproduzierbarkeit und zum Einsatz in der Lehre
Programmiersprache
Python, Unix-Shell
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/rlax.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.