これはScalable Distributed Deep-RLというLinuxアプリで、最新リリースはscalable_agentsourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
Scalable Distributed Deep-RL with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショット:
スケーラブルな分散型Deep-RL
説明:
Scalable Agent は、Google DeepMind が開発した高度にスケーラブルな分散強化学習フレームワークである IMPALA (Importance Weighted Actor-Learner Architectures) のオープン実装です。IMPALA は、行動プロセスと学習プロセスを分離することで、大規模環境全体でエージェントを効率的にトレーニングするための新しいパラダイムを導入しました。このアーキテクチャでは、複数のアクタープロセスが環境と並行して対話して軌跡を収集し、それらを非同期的に中央の学習者に送信してポリシーを更新します。学習者は重要度の重み付けを使用して、アクターと学習者間のポリシーの遅れを修正し、大規模なポリシー外トレーニングを安定して実行できるようにします。この設計により、システムはサンプルの効率と安定性を維持しながら、数百の環境と数十億フレームに効率的に拡張できます。この実装は、DeepMind Lab (DMLab) でのトレーニングをサポートしており、Atari や Street View などの他の環境にも適応されています。
オプション
- スケーラブルな分散型深層強化学習フレームワークであるIMPALAを実装します
- 重要度重み付けによる非同期アクター学習者アーキテクチャをサポート
- 大規模環境(DMLab-30、Atariなど)でエージェントを効率的にトレーニングします。
- 最適化されたデータスループットのための動的バッチ処理が含まれています
- DeepMind SonnetおよびTensorFlowと互換性あり
- 再現可能な単一マシンまたは分散トレーニング用の Dockerfile セットアップを提供します
プログラミング言語
C ++、Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/scalable-dist-deep-rl.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。