This is the Linux app named Higher whose latest release can be downloaded as higherv0.2.1sourcecode.zip. It can be run online in the free hosting provider OnWorks for workstations.
Téléchargez et exécutez en ligne gratuitement cette application nommée Higher avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
Meilleure performance du béton
DESCRIPTION
Higher est une bibliothèque spécialisée conçue pour étendre les capacités de PyTorch en permettant la différenciation d'ordre supérieur et le méta-apprentissage via des boucles d'optimisation différentiables. Elle permet aux développeurs et aux chercheurs de calculer des gradients tout au long des processus d'optimisation, ce qui est essentiel pour des tâches telles que le méta-apprentissage, l'optimisation des hyperparamètres et l'adaptation de modèles. La bibliothèque introduit des utilitaires qui convertissent les instances standard de torch.nn.Module en formes fonctionnelles « sans état », permettant ainsi de traiter les mises à jour de paramètres comme des opérations différentiables. Elle fournit également des implémentations différentiables d'optimiseurs courants comme SGD et Adam, permettant la rétropropagation via un nombre arbitraire d'étapes d'optimisation en boucle interne. Grâce à une interface claire et flexible, Higher simplifie la création d'algorithmes d'apprentissage complexes nécessitant le suivi des gradients sur plusieurs niveaux de mise à jour. Sa conception assure la compatibilité avec les modèles PyTorch existants.
Comment ça marche
- Permet une optimisation différenciable de la boucle interne et un suivi du gradient via des mises à jour
- Convertit les modèles torch.nn.Module en formes fonctionnelles et sans état pour le méta-apprentissage
- Fournit des versions différenciables d'optimiseurs standards tels qu'Adam et SGD
- Permet une optimisation déroulée pour le calcul de gradient d'ordre supérieur
- S'intègre facilement aux flux de travail PyTorch existants avec une modification minimale
- Prend en charge les optimiseurs différenciables personnalisés via l'enregistrement et le sous-classement
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/higher.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.
