Linux 用 Mixup-CIFAR10 ダウンロード

これはMixup-CIFAR10というLinuxアプリケーションで、最新リリースはmixup-cifar10sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。

 
 

OnWorks を使用して、Mixup-CIFAR10 というアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

ミックスアップ-CIFAR10



説明:

mixup-cifar10 は、「mixup: Beyond Empirical Risk Minimization」(Zhang et al., ICLR 2018)の公式 PyTorch 実装です。これは、深層ニューラルネットワークのトレーニングのためのシンプルでありながら強力なデータ拡張手法である mixup を紹介する基礎論文です。mixup の核となる考え方は、入力サンプルとそのラベルのペアの凸結合を取ることで、合成トレーニングサンプルを生成することです。データとラベルの両方を補間することで、モデルはより滑らかな決定境界を学習し、ノイズや敵対的サンプルに対してより堅牢になります。このリポジトリは、CIFAR-10 データセットに mixup を実装し、ニューラルネットワークの一般化、安定性、およびキャリブレーションの改善におけるその有効性を示しています。このアプローチは正則化子として機能し、サンプル間の特徴空間における線形動作を促進します。これにより、過剰適合が低減され、未知のデータに対するパフォーマンスが向上します。



オプション

  • 研究と実験のためのシンプルで簡単に拡張可能なコードベース
  • 2018年のICLRの初版結果に基づく
  • PyTorchおよびGPUアクセラレーショントレーニングと互換性あり
  • 一般化と堅牢性が大幅に向上した
  • 入力とラベルの凸組み合わせでニューラルネットワークをトレーニングする
  • CIFAR-10分類のためのミックスアップデータ拡張の実装


プログラミング言語

Python


カテゴリー

ニューラル ネットワーク ライブラリ

このアプリケーションは、https://sourceforge.net/projects/mixup-cifar10.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ