Dit is de Linux-app RLax, waarvan de nieuwste versie kan worden gedownload als RLax0.1.8sourcecode.tar.gz. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.
Download en gebruik online gratis deze app met de naam RLax met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.
- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie, installeer hem en voer hem uit.
SCHERMSCHERMEN:
RLax
BESCHRIJVING:
RLax (uitgesproken als "relax") is een op JAX gebaseerde bibliotheek, ontwikkeld door Google DeepMind, die herbruikbare wiskundige bouwstenen biedt voor het construeren van reinforcement learning (RL)-agenten. In plaats van volledige algoritmen te implementeren, richt RLax zich op de functionele kernbewerkingen die ten grondslag liggen aan RL-methoden – zoals het berekenen van waardefuncties, rendementen, beleidsgradiënten en verliestermen – waardoor onderzoekers flexibel hun eigen agenten kunnen samenstellen. RLax ondersteunt zowel on-policy als off-policy learning, evenals waardegebaseerde, beleidsgebaseerde en modelgebaseerde benaderingen. RLax is volledig JIT-compileerbaar met JAX, wat high-performance uitvoering mogelijk maakt op CPU-, GPU- en TPU-backends. De bibliotheek implementeert tools voor Bellman-vergelijkingen, rendementverdelingen, algemene waardefuncties en beleidsoptimalisatie in zowel continue als discrete actieruimten. RLax integreert naadloos met DeepMind's Haiku (voor neurale netwerkdefinitie) en Optax (voor optimalisatie), waardoor het een belangrijk onderdeel is van modulaire RL-pipelines.
Kenmerken
- Modulaire primitieven voor reinforcement learning (waarden, rendementen en beleid)
- JAX-geoptimaliseerd voor GPU/TPU-versnelling en automatische differentiatie
- Ondersteunt leerparadigma's die binnen het beleid en buiten het beleid vallen
- Implementeert distributiewaardefuncties en algemene waardefuncties
- Integreert met Haiku en Optax voor neurale netwerk- en optimalisatiepijplijnen
- Uitgebreide tests en voorbeelden voor reproduceerbaarheid en educatief gebruik
Programmeertaal
Python, Unix-shell
Categorieën
Deze applicatie kan ook worden gedownload van https://sourceforge.net/projects/rlax.mirror/. Deze is gehost in OnWorks, zodat deze eenvoudig online kan worden uitgevoerd via een van onze gratis besturingssystemen.