Il s'agit de l'application Linux Mixup-CIFAR10, dont la dernière version est téléchargeable sous le nom mixup-cifar10sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée Mixup-CIFAR10 avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
Mixup-CIFAR10
DESCRIPTION:
mixup-cifar10 est l'implémentation PyTorch officielle de « mixup : Beyond Empirical Risk Minimization » (Zhang et al., ICLR 2018), un article fondateur présentant mixup, une technique d'augmentation de données simple mais puissante pour l'entraînement des réseaux de neurones profonds. L'idée principale de mixup est de générer des exemples d'entraînement synthétiques en combinant des paires d'échantillons d'entrée convexes et leurs étiquettes. En interpolant à la fois les données et les étiquettes, le modèle apprend des limites de décision plus lisses et devient plus robuste au bruit et aux exemples contradictoires. Ce référentiel implémente mixup pour le jeu de données CIFAR-10, démontrant son efficacité pour améliorer la généralisation, la stabilité et l'étalonnage des réseaux de neurones. Cette approche agit comme un régularisateur, favorisant un comportement linéaire dans l'espace des caractéristiques entre les échantillons, ce qui contribue à réduire le surapprentissage et à améliorer les performances sur les données non visualisées.
Comment ça marche
- Base de code simple et facilement extensible pour la recherche et l'expérimentation
- Basé sur les résultats de la publication originale de l'ICLR 2018
- Compatible avec PyTorch et la formation accélérée par GPU
- Démontre des gains significatifs en termes de généralisation et de robustesse
- Entraîne les réseaux neuronaux sur des combinaisons convexes d'entrées et d'étiquettes
- Mise en œuvre de l'augmentation des données de mixage pour la classification CIFAR-10
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/mixup-cifar10.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.