Dies ist die Linux-App namens Mixup-CIFAR10, deren neueste Version als mixup-cifar10sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Mixup-CIFAR10 mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
Verwechslung-CIFAR10
BESCHREIBUNG:
mixup-cifar10 ist die offizielle PyTorch-Implementierung von „mixup: Beyond Empirical Risk Minimization“ (Zhang et al., ICLR 2018), einem Grundlagenpapier, das mixup vorstellt, eine einfache, aber leistungsstarke Datenerweiterungstechnik für das Training tiefer neuronaler Netzwerke. Die Kernidee von mixup besteht darin, synthetische Trainingsbeispiele durch konvexe Kombinationen von Paaren aus Eingabebeispielen und deren Beschriftungen zu generieren. Durch die Interpolation von Daten und Beschriftungen lernt das Modell glattere Entscheidungsgrenzen und wird robuster gegenüber Rauschen und gegnerischen Beispielen. Dieses Repository implementiert mixup für den CIFAR-10-Datensatz und demonstriert seine Wirksamkeit bei der Verbesserung der Generalisierung, Stabilität und Kalibrierung neuronaler Netzwerke. Der Ansatz fungiert als Regularisierer und fördert lineares Verhalten im Merkmalsraum zwischen den Beispielen, wodurch Überanpassung reduziert und die Leistung bei unbekannten Daten verbessert wird.
Eigenschaften
- Einfache, leicht erweiterbare Codebasis für Forschung und Experimente
- Basierend auf den ursprünglichen Veröffentlichungsergebnissen des ICLR 2018
- Kompatibel mit PyTorch und GPU-beschleunigtem Training
- Zeigt signifikante Verbesserungen bei Generalisierung und Robustheit
- Trainiert neuronale Netzwerke anhand konvexer Kombinationen von Eingaben und Beschriftungen
- Implementierung der Mixup-Datenerweiterung für die CIFAR-10-Klassifizierung
Programmiersprache
Python
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/mixup-cifar10.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.