This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
OnWorks を使用して、MAE (Masked Autoencoders) というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
MAE(マスクオートエンコーダ)
DESCRIPTION
MAE(Masked Autoencoders)は、マスク画像モデリングを用いた視覚表現学習のための自己教師学習フレームワークです。画像パッチの大部分(通常75%)をランダムにマスクし、残りの可視パッチから欠落したコンテンツを再構成することで、Vision Transformer(ViT)をトレーニングします。これにより、モデルは教師なしで意味構造とグローバルコンテキストを学習します。エンコーダーは可視パッチのみを処理し、軽量デコーダーが画像全体を再構成するため、事前トレーニングの計算効率が向上します。事前トレーニング後、エンコーダーは画像分類、セグメンテーション、検出などの下流タスクの強力なバックボーンとして機能し、最小限の微調整で最高のパフォーマンスを実現します。リポジトリには、再構成品質と学習済み特徴のための事前トレーニング済みモデル、微調整スクリプト、評価プロトコル、可視化ツールが用意されています。
オプション
- ランダム高比率パッチマスキングによるマスク画像モデリング
- エンコーダとデコーダの分離による効率的な事前トレーニング(エンコーダは可視パッチのみを認識)
- 下流のビジョンタスクのためのスケーラブルな Vision Transformer バックボーン
- 分類、検出、セグメンテーションのための事前学習済みモデルと微調整スクリプト
- 再構築と表現分析のための可視化ツール
- ラベル付きデータを必要としない自己教師型学習パラダイム
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/mae-masked-autoencoders.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。