This is the Windows app named MAE (Masked Autoencoders) whose latest release can be downloaded as maesourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Laden Sie diese App namens MAE (Masked Autoencoders) kostenlos herunter und führen Sie sie online mit OnWorks aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS
Ad
MAE (Maskierte Autoencoder)
BESCHREIBUNG
MAE (Masked Autoencoders) ist ein selbstüberwachtes Lernframework für das Lernen visueller Darstellungen mithilfe maskierter Bildmodellierung. Es trainiert einen Vision Transformer (ViT), indem es einen hohen Prozentsatz von Bildausschnitten (typischerweise 75 %) zufällig maskiert und den fehlenden Inhalt aus den verbleibenden sichtbaren Ausschnitten rekonstruiert. Dadurch wird das Modell gezwungen, die semantische Struktur und den globalen Kontext ohne Aufsicht zu erlernen. Der Encoder verarbeitet nur die sichtbaren Ausschnitte, während ein schlanker Decoder das gesamte Bild rekonstruiert – das Vortraining ist rechnerisch effizient. Nach dem Vortraining dient der Encoder als leistungsstarkes Rückgrat für nachgelagerte Aufgaben wie Bildklassifizierung, -segmentierung und -erkennung und erreicht Spitzenleistung mit minimalem Feintuning. Das Repository bietet vortrainierte Modelle, Feintuning-Skripte, Auswertungsprotokolle und Visualisierungstools für Rekonstruktionsqualität und erlernte Merkmale.
Eigenschaften
- Maskierte Bildmodellierung mit zufälliger Patch-Maskierung mit hohem Verhältnis
- Effizientes Vortraining durch Encoder-Decoder-Trennung (Encoder sieht nur sichtbare Patches)
- Skalierbares Vision Transformer-Backbone für nachgelagerte Vision-Aufgaben
- Vortrainierte Modelle und Feinabstimmungsskripte für Klassifizierung, Erkennung und Segmentierung
- Visualisierungstools zur Rekonstruktion und Darstellungsanalyse
- Selbstüberwachtes Trainingsparadigma, das keine gekennzeichneten Daten erfordert
Programmiersprache
Python
Kategorien
Diese Anwendung ist auch unter https://sourceforge.net/projects/mae-masked-autoencoders.mirror/ verfügbar. Sie wurde in OnWorks gehostet, um sie bequem online über eines unserer kostenlosen Betriebssysteme ausführen zu können.