これはMixup-CIFAR10というLinuxアプリケーションで、最新リリースはmixup-cifar10sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks を使用して、Mixup-CIFAR10 というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。
-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードし、インストールして実行します。
ミックスアップ-CIFAR10
説明:
mixup-cifar10 は、「mixup: Beyond Empirical Risk Minimization」(Zhang et al., ICLR 2018)の公式 PyTorch 実装です。これは、深層ニューラルネットワークのトレーニングのためのシンプルでありながら強力なデータ拡張手法である mixup を紹介する基礎論文です。mixup の核となる考え方は、入力サンプルとそのラベルのペアの凸結合を取ることで、合成トレーニングサンプルを生成することです。データとラベルの両方を補間することで、モデルはより滑らかな決定境界を学習し、ノイズや敵対的サンプルに対してより堅牢になります。このリポジトリは、CIFAR-10 データセットに mixup を実装し、ニューラルネットワークの一般化、安定性、およびキャリブレーションの改善におけるその有効性を示しています。このアプローチは正則化子として機能し、サンプル間の特徴空間における線形動作を促進します。これにより、過剰適合が低減され、未知のデータに対するパフォーマンスが向上します。
オプション
- 研究と実験のためのシンプルで簡単に拡張可能なコードベース
- 2018年のICLRの初版結果に基づく
- PyTorchおよびGPUアクセラレーショントレーニングと互換性あり
- 一般化と堅牢性が大幅に向上した
- 入力とラベルの凸組み合わせでニューラルネットワークをトレーニングする
- CIFAR-10分類のためのミックスアップデータ拡張の実装
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/mixup-cifar10.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。