This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Descărcați și rulați online această aplicație numită MAE (Masked Autoencoders) cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți orice emulator online OS OnWorks de pe acest site, dar mai bun emulator online Windows.
- 5. Din sistemul de operare Windows OnWorks pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația și instalați-o.
- 7. Descărcați Wine din depozitele de software ale distribuțiilor Linux. Odată instalat, puteți apoi să faceți dublu clic pe aplicație pentru a le rula cu Wine. De asemenea, puteți încerca PlayOnLinux, o interfață elegantă peste Wine, care vă va ajuta să instalați programe și jocuri populare Windows.
Wine este o modalitate de a rula software-ul Windows pe Linux, dar fără a fi necesar Windows. Wine este un strat de compatibilitate Windows open-source care poate rula programe Windows direct pe orice desktop Linux. În esență, Wine încearcă să reimplementeze suficient Windows de la zero, astfel încât să poată rula toate acele aplicații Windows fără a avea nevoie efectiv de Windows.
SCREENSHOTS
Ad
MAE (Autoencodere mascate)
DESCRIERE
MAE (Masked Autoencoders) este un cadru de învățare auto-supervizat pentru învățarea reprezentărilor vizuale utilizând modelarea imaginilor mascate. Acesta antrenează un Vision Transformer (ViT) prin mascarea aleatorie a unui procent ridicat de patch-uri de imagine (de obicei 75%) și reconstrucția conținutului lipsă din patch-urile vizibile rămase. Acest lucru forțează modelul să învețe structura semantică și contextul global fără supraveghere. Codificatorul procesează doar patch-urile vizibile, în timp ce un decodor ușor reconstruiește imaginea completă - ceea ce face ca pre-antrenamentul să fie eficient din punct de vedere computațional. După pre-antrenament, codificatorul servește ca o coloană vertebrală puternică pentru sarcini ulterioare, cum ar fi clasificarea, segmentarea și detectarea imaginilor, atingând performanțe maxime cu reglaje fine minime. Depozitul oferă modele pre-antrenate, scripturi de reglare fină, protocoale de evaluare și instrumente de vizualizare pentru calitatea reconstrucției și caracteristicile învățate.
Categorii
- Modelare de imagini mascate cu mascare aleatorie a patch-urilor cu raport ridicat
- Pre-antrenament eficient prin separarea encoder-decoder (encoderul vede doar patch-urile vizibile)
- Coloana vertebrală scalabilă a Vision Transformer pentru sarcini de viziune din aval
- Modele pre-antrenate și scripturi de reglare fină pentru clasificare, detectare și segmentare
- Instrumente de vizualizare pentru reconstrucție și analiză a reprezentării
- Paradigma de antrenament auto-supervizat care nu necesită date etichetate
Limbaj de programare
Piton
Categorii
Aceasta este o aplicație care poate fi descărcată și de la https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. A fost găzduită în OnWorks pentru a putea fi rulată online în cel mai simplu mod de pe unul dintre sistemele noastre de operare gratuite.