GoGPT Best VPN GoSearch

Icône de favori OnWorks

Higher download for Linux

Free download Higher Linux app to run online in Ubuntu online, Fedora online or Debian online

This is the Linux app named Higher whose latest release can be downloaded as higherv0.2.1sourcecode.zip. It can be run online in the free hosting provider OnWorks for workstations.

Téléchargez et exécutez en ligne gratuitement cette application nommée Higher avec OnWorks.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN

Ad


Meilleure performance du béton


DESCRIPTION

Higher est une bibliothèque spécialisée conçue pour étendre les capacités de PyTorch en permettant la différenciation d'ordre supérieur et le méta-apprentissage via des boucles d'optimisation différentiables. Elle permet aux développeurs et aux chercheurs de calculer des gradients tout au long des processus d'optimisation, ce qui est essentiel pour des tâches telles que le méta-apprentissage, l'optimisation des hyperparamètres et l'adaptation de modèles. La bibliothèque introduit des utilitaires qui convertissent les instances standard de torch.nn.Module en formes fonctionnelles « sans état », permettant ainsi de traiter les mises à jour de paramètres comme des opérations différentiables. Elle fournit également des implémentations différentiables d'optimiseurs courants comme SGD et Adam, permettant la rétropropagation via un nombre arbitraire d'étapes d'optimisation en boucle interne. Grâce à une interface claire et flexible, Higher simplifie la création d'algorithmes d'apprentissage complexes nécessitant le suivi des gradients sur plusieurs niveaux de mise à jour. Sa conception assure la compatibilité avec les modèles PyTorch existants.



Comment ça marche

  • Permet une optimisation différenciable de la boucle interne et un suivi du gradient via des mises à jour
  • Convertit les modèles torch.nn.Module en formes fonctionnelles et sans état pour le méta-apprentissage
  • Fournit des versions différenciables d'optimiseurs standards tels qu'Adam et SGD
  • Permet une optimisation déroulée pour le calcul de gradient d'ordre supérieur
  • S'intègre facilement aux flux de travail PyTorch existants avec une modification minimale
  • Prend en charge les optimiseurs différenciables personnalisés via l'enregistrement et le sous-classement


Langage de programmation

Python


Catégories

Bibliothèques

Cette application peut également être téléchargée depuis https://sourceforge.net/projects/higher.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.