これは Fairseq という名前の Linux アプリで、最新リリースは v0.10.2.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
無料でOnWorksを使用してFairseqという名前のこのアプリをオンラインでダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
スクリーンショットは
Ad
フェアセック
DESCRIPTION
Fairseq(-py)は、研究者や開発者が翻訳、要約、言語モデリング、その他のテキスト生成タスク用のカスタムモデルをトレーニングできるようにするシーケンスモデリングツールキットです。 さまざまなシーケンスモデリングペーパーのリファレンス実装を提供します。 MicrosoftとGoogleによる最近の研究では、データ並列ワーカー間でモデルパラメーターとオプティマイザーの状態をシャーディングすることで、データ並列トレーニングを大幅に効率化できることが示されています。 これらのアイデアは、fairscaleが提供する新しいFullyShardedDataParallel(FSDP)ラッパーにカプセル化されています。 Fairseqは、ユーザー提供のプラグインを介して拡張できます。 モデルはニューラルネットワークアーキテクチャを定義し、学習可能なすべてのパラメータをカプセル化します。 基準は、モデルの出力とターゲットを指定して損失関数を計算します。 タスクは辞書を保存し、データセットの読み込み/反復、モデル/基準の初期化、および損失の計算のためのヘルパーを提供します。
特徴
- XNUMX台のマシンまたは複数のマシンにわたるマルチGPUトレーニング(データとモデルの並列)
- 複数の検索アルゴリズムが実装されたCPUとGPUの両方での高速生成
- 勾配の蓄積により、単一のGPUでも大きなミニバッチを使用したトレーニングが可能になります
- 混合精度トレーニング(NVIDIAテンソルコアのGPUメモリが少ないほど高速にトレーニング)
- 新しいモデル、基準、タスク、オプティマイザー、学習率スケジューラーを簡単に登録できます
- コード、コマンドライン、およびファイルベースの構成の組み合わせを可能にするHydraに基づく柔軟な構成
プログラミング言語
Python
カテゴリー
これは、https://sourceforge.net/projects/fairseq.mirror/からも取得できるアプリケーションです。 無料のオペレーティングシステムのXNUMXつから最も簡単な方法でオンラインで実行するために、OnWorksでホストされています。