This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Scarica ed esegui online gratuitamente questa app denominata MAE (Masked Autoencoders) con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avvia qualsiasi emulatore online OS OnWorks da questo sito Web, ma migliore emulatore online Windows.
- 5. Dal sistema operativo OnWorks Windows che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione e installala.
- 7. Scarica Wine dai repository software delle tue distribuzioni Linux. Una volta installato, puoi quindi fare doppio clic sull'app per eseguirli con Wine. Puoi anche provare PlayOnLinux, un'interfaccia fantasiosa su Wine che ti aiuterà a installare programmi e giochi Windows popolari.
Wine è un modo per eseguire il software Windows su Linux, ma senza Windows richiesto. Wine è un livello di compatibilità Windows open source in grado di eseguire programmi Windows direttamente su qualsiasi desktop Linux. Essenzialmente, Wine sta cercando di re-implementare abbastanza Windows da zero in modo che possa eseguire tutte quelle applicazioni Windows senza effettivamente bisogno di Windows.
IMMAGINI
Ad
MAE (autoencoder mascherati)
DESCRIZIONE
MAE (Masked Autoencoders) è un framework di apprendimento autosupervisionato per l'apprendimento della rappresentazione visiva utilizzando la modellazione di immagini mascherate. Addestra un Vision Transformer (ViT) mascherando casualmente un'elevata percentuale di patch di immagini (tipicamente il 75%) e ricostruendo il contenuto mancante dalle patch visibili rimanenti. Questo costringe il modello ad apprendere la struttura semantica e il contesto globale senza supervisione. Il codificatore elabora solo le patch visibili, mentre un decodificatore leggero ricostruisce l'immagine completa, rendendo il pre-addestramento computazionalmente efficiente. Dopo il pre-addestramento, il codificatore funge da potente struttura portante per attività a valle come la classificazione, la segmentazione e il rilevamento delle immagini, ottenendo le massime prestazioni con una messa a punto minima. Il repository fornisce modelli pre-addestrati, script di messa a punto, protocolli di valutazione e strumenti di visualizzazione per la qualità della ricostruzione e le caratteristiche apprese.
Caratteristiche
- Modellazione di immagini mascherate con mascheramento di patch casuale ad alto rapporto
- Pre-addestramento efficiente tramite separazione encoder-decoder (l'encoder vede solo le patch visibili)
- Backbone del trasformatore di visione scalabile per attività di visione a valle
- Modelli preaddestrati e script di messa a punto per la classificazione, il rilevamento e la segmentazione
- Strumenti di visualizzazione per l'analisi della ricostruzione e della rappresentazione
- Paradigma di addestramento autosupervisionato che non richiede dati etichettati
Linguaggio di programmazione
Python
Categorie
Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.