Linux 用 MAE (マスクオートエンコーダ) のダウンロード

これはMAE(Masked Autoencoders)と呼ばれるLinuxアプリケーションで、最新リリースはmaesourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。

 
 

OnWorks を使用して、MAE (Masked Autoencoders) というアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOnWorksLinuxオンラインまたはWindowsオンラインエミュレーターまたはMACOSオンラインエミュレーターを起動します。

-5。起動したばかりのOnWorksLinux OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードし、インストールして実行します。

スクリーンショット:


MAE(マスクオートエンコーダ)


説明:

MAE(Masked Autoencoders)は、マスク画像モデリングを用いた視覚表現学習のための自己教師学習フレームワークです。画像パッチの大部分(通常75%)をランダムにマスクし、残りの可視パッチから欠落したコンテンツを再構成することで、Vision Transformer(ViT)をトレーニングします。これにより、モデルは教師なしで意味構造とグローバルコンテキストを学習します。エンコーダーは可視パッチのみを処理し、軽量デコーダーが画像全体を再構成するため、事前トレーニングの計算効率が向上します。事前トレーニング後、エンコーダーは画像分類、セグメンテーション、検出などの下流タスクの強力なバックボーンとして機能し、最小限の微調整で最高のパフォーマンスを実現します。リポジトリには、再構成品質と学習済み特徴のための事前トレーニング済みモデル、微調整スクリプト、評価プロトコル、可視化ツールが用意されています。



オプション

  • ランダム高比率パッチマスキングによるマスク画像モデリング
  • エンコーダとデコーダの分離による効率的な事前トレーニング(エンコーダは可視パッチのみを認識)
  • 下流のビジョンタスクのためのスケーラブルな Vision Transformer バックボーン
  • 分類、検出、セグメンテーションのための事前学習済みモデルと微調整スクリプト
  • 再構築と表現分析のための可視化ツール
  • ラベル付きデータを必要としない自己教師型学習パラダイム


プログラミング言語

Python


カテゴリー

AIモデル

このアプリケーションは、https://sourceforge.net/projects/mae-masked-autoencoders.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ