RLax-Download für Linux

Dies ist die Linux-App namens RLax, deren neueste Version als RLax0.1.8sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

 
 

Laden Sie diese App namens RLax mit OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS:


RLax


BESCHREIBUNG:

RLax (ausgesprochen „relax“) ist eine von Google DeepMind entwickelte JAX-basierte Bibliothek, die wiederverwendbare mathematische Bausteine ​​für die Konstruktion von Reinforcement-Learning-Agenten (RL) bereitstellt. Statt vollständige Algorithmen zu implementieren, konzentriert sich RLax auf die zentralen funktionalen Operationen, die RL-Methoden zugrunde liegen – wie die Berechnung von Wertfunktionen, Renditen, Policy-Gradienten und Verlusttermen – und ermöglicht es Forschern, flexibel eigene Agenten zusammenzustellen. Es unterstützt sowohl On-Policy- als auch Off-Policy-Learning sowie wertbasierte, policy-basierte und modellbasierte Ansätze. RLax ist mit JAX vollständig JIT-kompilierbar und ermöglicht so eine leistungsstarke Ausführung auf CPU-, GPU- und TPU-Backends. Die Bibliothek implementiert Tools für Bellman-Gleichungen, Renditeverteilungen, allgemeine Wertfunktionen und Policy-Optimierung in kontinuierlichen und diskreten Aktionsräumen. Es lässt sich nahtlos in DeepMinds Haiku (zur Definition neuronaler Netzwerke) und Optax (zur Optimierung) integrieren und ist somit eine Schlüsselkomponente in modularen RL-Pipelines.



Eigenschaften

  • Modulare Grundelemente des bestärkenden Lernens (Werte, Renditen und Richtlinien)
  • JAX-optimiert für GPU/TPU-Beschleunigung und automatische Differenzierung
  • Unterstützt On-Policy- und Off-Policy-Lernparadigmen
  • Implementiert Verteilungswertfunktionen und allgemeine Wertfunktionen
  • Integriert mit Haiku und Optax für neuronale Netzwerke und Optimierungspipelines
  • Umfassende Tests und Beispiele zur Reproduzierbarkeit und zum Einsatz in der Lehre


Programmiersprache

Python, Unix-Shell


Kategorien

Bibliotheken

Diese Anwendung kann auch von https://sourceforge.net/projects/rlax.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.



Neueste Linux- und Windows-Online-Programme


Kategorien zum Herunterladen von Software und Programmen für Windows und Linux