Questa è l'app Linux chiamata Higher, la cui ultima versione può essere scaricata come higherv0.2.1sourcecode.zip. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app chiamata Higher with OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI
Ad
Maggiore
DESCRIZIONE
higher è una libreria specializzata progettata per estendere le capacità di PyTorch consentendo la differenziazione di ordine superiore e il meta-apprendimento attraverso cicli di ottimizzazione differenziabili. Consente a sviluppatori e ricercatori di calcolare i gradienti attraverso interi processi di ottimizzazione, essenziale per attività come il meta-apprendimento, l'ottimizzazione degli iperparametri e l'adattamento dei modelli. La libreria introduce utility che convertono le istanze standard di torch.nn.Module in forme funzionali "stateless", in modo che gli aggiornamenti dei parametri possano essere trattati come operazioni differenziabili. Fornisce inoltre implementazioni differenziabili di ottimizzatori comuni come SGD e Adam, rendendo possibile la retropropagazione attraverso un numero arbitrario di passaggi di ottimizzazione a ciclo interno. Offrendo un'interfaccia chiara e flessibile, higher semplifica la creazione di algoritmi di apprendimento complessi che richiedono il tracciamento del gradiente su più livelli di aggiornamento. Il suo design garantisce la compatibilità con i modelli PyTorch esistenti.
Caratteristiche
- Consente l'ottimizzazione differenziabile del ciclo interno e il tracciamento del gradiente tramite aggiornamenti
- Converte i modelli torch.nn.Module in forme funzionali e stateless per il meta-apprendimento
- Fornisce versioni differenziabili di ottimizzatori standard come Adam e SGD
- Consente l'ottimizzazione non elaborata per il calcolo del gradiente di ordine superiore
- Si integra facilmente nei flussi di lavoro PyTorch esistenti con modifiche minime
- Supporta ottimizzatori differenziabili personalizzati tramite registrazione e sottoclassificazione
Linguaggio di programmazione
Python
Categorie
Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/higher.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.
