これはRLaxというLinuxアプリで、最新リリースはRLax0.1.8sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
RLax というアプリを OnWorks で無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
RLax
説明:
RLax(発音は「リラックス」)は、Google DeepMindが開発したJAXベースのライブラリで、強化学習(RL)エージェントを構築するための再利用可能な数学的構成要素を提供します。RLaxは、完全なアルゴリズムを実装するのではなく、RL手法の基盤となるコア機能演算(価値関数、リターン、ポリシー勾配、損失項の計算など)に焦点を当てているため、研究者は独自のエージェントを柔軟に構築できます。RLaxは、ポリシーオン学習とポリシーオフ学習の両方、そして価値ベース、ポリシーベース、モデルベースのアプローチをサポートしています。RLaxはJAXで完全にJITコンパイル可能であり、CPU、GPU、TPUバックエンド全体で高性能な実行を可能にします。このライブラリは、ベルマン方程式、リターン分布、一般的な価値関数、そして連続および離散行動空間の両方におけるポリシー最適化のためのツールを実装しています。DeepMindのHaiku(ニューラルネットワーク定義用)およびOptax(最適化用)とシームレスに統合されているため、モジュール型RLパイプラインの主要コンポーネントとなっています。
オプション
- モジュール式強化学習プリミティブ(値、リターン、ポリシー)
- GPU/TPU アクセラレーションと自動微分化向けに JAX 最適化
- オンポリシーとオフポリシーの学習パラダイムをサポート
- 分布価値関数と一般価値関数を実装する
- ニューラルネットワークと最適化パイプラインのためにHaikuおよびOptaxと統合
- 再現性と教育的使用のための包括的なテストと例
プログラミング言語
Python、Unixシェル
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/rlax.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。