Dies ist die Windows-App namens RLax, deren neueste Version als RLax0.1.8sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens RLax mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
RLax
BESCHREIBUNG:
RLax (ausgesprochen „relax“) ist eine von Google DeepMind entwickelte JAX-basierte Bibliothek, die wiederverwendbare mathematische Bausteine für die Konstruktion von Reinforcement-Learning-Agenten (RL) bereitstellt. Statt vollständige Algorithmen zu implementieren, konzentriert sich RLax auf die zentralen funktionalen Operationen, die RL-Methoden zugrunde liegen – wie die Berechnung von Wertfunktionen, Renditen, Policy-Gradienten und Verlusttermen – und ermöglicht es Forschern, flexibel eigene Agenten zusammenzustellen. Es unterstützt sowohl On-Policy- als auch Off-Policy-Learning sowie wertbasierte, policy-basierte und modellbasierte Ansätze. RLax ist mit JAX vollständig JIT-kompilierbar und ermöglicht so eine leistungsstarke Ausführung auf CPU-, GPU- und TPU-Backends. Die Bibliothek implementiert Tools für Bellman-Gleichungen, Renditeverteilungen, allgemeine Wertfunktionen und Policy-Optimierung in kontinuierlichen und diskreten Aktionsräumen. Es lässt sich nahtlos in DeepMinds Haiku (zur Definition neuronaler Netzwerke) und Optax (zur Optimierung) integrieren und ist somit eine Schlüsselkomponente in modularen RL-Pipelines.
Eigenschaften
- Modulare Grundelemente des bestärkenden Lernens (Werte, Renditen und Richtlinien)
- JAX-optimiert für GPU/TPU-Beschleunigung und automatische Differenzierung
- Unterstützt On-Policy- und Off-Policy-Lernparadigmen
- Implementiert Verteilungswertfunktionen und allgemeine Wertfunktionen
- Integriert mit Haiku und Optax für neuronale Netzwerke und Optimierungspipelines
- Umfassende Tests und Beispiele zur Reproduzierbarkeit und zum Einsatz in der Lehre
Programmiersprache
Python, Unix-Shell
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/rlax.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.