Dies ist die Linux-App namens Fairseq, deren neueste Version als v0.10.2.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Fairseq mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
Fairseq
BESCHREIBUNG
Fairseq(-py) ist ein Sequenzmodellierungs-Toolkit, mit dem Forscher und Entwickler benutzerdefinierte Modelle für Übersetzung, Zusammenfassung, Sprachmodellierung und andere Textgenerierungsaufgaben trainieren können. Wir bieten Referenzimplementierungen verschiedener Sequenzmodellierungspapiere. Jüngste Arbeiten von Microsoft und Google haben gezeigt, dass das datenparallele Training deutlich effizienter gestaltet werden kann, indem die Modellparameter und der Optimiererstatus auf alle datenparallelen Worker aufgeteilt werden. Diese Ideen sind im neuen FullyShardedDataParallel (FSDP)-Wrapper von fairscale gekapselt. Fairseq kann durch vom Benutzer bereitgestellte Plug-Ins erweitert werden. Modelle definieren die neuronale Netzwerkarchitektur und kapseln alle lernbaren Parameter. Kriterien berechnen die Verlustfunktion anhand der Modellausgaben und -ziele. Aufgaben speichern Wörterbücher und stellen Helfer zum Laden/Iterieren von Datensätzen, zum Initialisieren des Modells/Kriteriums und zum Berechnen des Verlusts bereit.
Eigenschaften
- Multi-GPU-Training auf einer Maschine oder über mehrere Maschinen hinweg (Daten und Modell parallel)
- Schnelle Generierung auf CPU und GPU mit mehreren implementierten Suchalgorithmen
- Die Gradientenakkumulation ermöglicht das Training mit großen Mini-Batches sogar auf einer einzelnen GPU
- Training mit gemischter Präzision (trainiert schneller mit weniger GPU-Speicher auf NVIDIA-Tensorkernen)
- Registrieren Sie ganz einfach neue Modelle, Kriterien, Aufgaben, Optimierer und Lernratenplaner
- Flexible Konfiguration auf Basis von Hydra, die eine Kombination aus Code-, Befehlszeilen- und dateibasierter Konfiguration ermöglicht
Programmiersprache
Python
Kategorien
Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/fairseq.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.