This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Pobierz i uruchom bezpłatnie aplikację MAE (Masked Autoencoders) z OnWorks.
Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:
- 1. Pobrałem tę aplikację na swój komputer.
- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 3. Prześlij tę aplikację w takim menedżerze plików.
- 4. Uruchom dowolny emulator online systemu operacyjnego OnWorks z tej witryny, ale lepszy emulator online systemu Windows.
- 5. W systemie operacyjnym OnWorks Windows, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.
- 6. Pobierz aplikację i zainstaluj ją.
- 7. Pobierz Wine z repozytoriów oprogramowania dystrybucji Linuksa. Po zainstalowaniu możesz dwukrotnie kliknąć aplikację, aby uruchomić ją za pomocą Wine. Możesz także wypróbować PlayOnLinux, fantazyjny interfejs w Wine, który pomoże Ci zainstalować popularne programy i gry Windows.
Wine to sposób na uruchamianie oprogramowania Windows w systemie Linux, ale bez systemu Windows. Wine to warstwa kompatybilności z systemem Windows typu open source, która może uruchamiać programy systemu Windows bezpośrednio na dowolnym pulpicie systemu Linux. Zasadniczo Wine próbuje ponownie zaimplementować system Windows od podstaw, aby mógł uruchamiać wszystkie te aplikacje Windows bez faktycznego korzystania z systemu Windows.
ZDJĘCIA EKRANU:
MAE (Autoenkodery maskowane)
OPIS:
MAE (Masked Autoencoders) to samonadzorowany framework uczenia się reprezentacji wizualnej z wykorzystaniem maskowanego modelowania obrazu. Trenuje on Vision Transformer (ViT) poprzez losowe maskowanie wysokiego odsetka fragmentów obrazu (zwykle 75%) i rekonstruowanie brakującej treści z pozostałych widocznych fragmentów. Zmusza to model do uczenia się struktury semantycznej i kontekstu globalnego bez nadzoru. Koder przetwarza tylko widoczne fragmenty obrazu, podczas gdy lekki dekoder rekonstruuje cały obraz, co zwiększa wydajność obliczeniową procesu wstępnego trenowania. Po wstępnym trenowaniu koder stanowi potężną podstawę dla zadań downstream, takich jak klasyfikacja, segmentacja i detekcja obrazu, osiągając najwyższą wydajność przy minimalnym dostrajaniu. Repozytorium udostępnia wstępnie wytrenowane modele, skrypty dostrajające, protokoły ewaluacji oraz narzędzia wizualizacyjne do poprawy jakości rekonstrukcji i wyuczonych cech.
Funkcjonalności
- Modelowanie obrazu maskowanego z losowym maskowaniem łat o wysokim współczynniku
- Efektywne wstępne szkolenie poprzez rozdzielenie kodera i dekodera (koder widzi tylko widoczne fragmenty)
- Skalowalny szkielet transformatora wizji dla zadań wizji downstream
- Wstępnie wyszkolone modele i skrypty dostrajające do klasyfikacji, wykrywania i segmentacji
- Narzędzia wizualizacyjne do analizy rekonstrukcji i reprezentacji
- Paradygmat szkolenia z samodzielnym nadzorem, nie wymagający danych oznaczonych
Język programowania
Python
Kategorie
Tę aplikację można również pobrać ze strony https://sourceforge.net/projects/mae-masked-autoencoders.mirror/. Została ona umieszczona w OnWorks, aby można ją było uruchomić online w najłatwiejszy sposób z jednego z naszych darmowych systemów operacyjnych.