Il s'agit de l'application Windows RLax, dont la dernière version est téléchargeable sous le nom RLax0.1.8sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée RLax avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN:
RLax
DESCRIPTION:
RLax (prononcé « relax ») est une bibliothèque JAX développée par Google DeepMind. Elle fournit des blocs de construction mathématiques réutilisables pour la construction d'agents d'apprentissage par renforcement (RL). Plutôt que d'implémenter des algorithmes complets, RLax se concentre sur les opérations fonctionnelles essentielles qui sous-tendent les méthodes d'apprentissage par renforcement (RL), telles que le calcul des fonctions de valeur, des rendements, des gradients de politique et des termes de perte, permettant ainsi aux chercheurs d'assembler leurs propres agents avec flexibilité. Elle prend en charge l'apprentissage avec et sans politique, ainsi que les approches basées sur la valeur, les politiques et les modèles. RLax est entièrement compilable JIT avec JAX, permettant une exécution haute performance sur les backends CPU, GPU et TPU. La bibliothèque implémente des outils pour les équations de Bellman, les distributions de rendement, les fonctions de valeur générales et l'optimisation des politiques dans les espaces d'action continus et discrets. Elle s'intègre parfaitement à Haiku (pour la définition des réseaux neuronaux) et Optax (pour l'optimisation) de DeepMind, ce qui en fait un composant clé des pipelines d'apprentissage par renforcement modulaires.
Fonctionnement
- Primitives d'apprentissage par renforcement modulaire (valeurs, retours et politiques)
- Optimisé JAX pour l'accélération GPU/TPU et la différenciation automatique
- Prend en charge les paradigmes d'apprentissage avec et sans politique
- Implémente des fonctions de valeur distributionnelles et des fonctions de valeur générales
- S'intègre à Haiku et Optax pour les réseaux neuronaux et les pipelines d'optimisation
- Tests complets et exemples pour la reproductibilité et l'utilisation pédagogique
Langage de programmation
Python, shell Unix
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/rlax.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.