Questa è l'app Linux denominata MobileLLM, la cui ultima versione può essere scaricata come MobileLLMsourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app chiamata MobileLLM con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI:
MobileLLM
DESCRIZIONE:
MobileLLM è un framework leggero per modelli linguistici di grandi dimensioni (LLM) sviluppato da Facebook Research, ottimizzato per l'implementazione su dispositivi in cui l'efficienza computazionale e di memoria sono fondamentali. Presentato nel documento ICML 2024 "MobileLLM: Ottimizzazione di modelli linguistici con parametri inferiori a un miliardo per casi d'uso su dispositivi", si concentra sull'offerta di solide capacità di ragionamento e generalizzazione in modelli con un numero di parametri inferiore a un miliardo. Il framework integra diverse innovazioni architetturali – attivazione SwiGLU, progettazione di reti profonde e sottili, condivisione dell'embedding e attenzione alle query raggruppate (GQA) – per raggiungere un compromesso ottimale tra dimensioni del modello, velocità di inferenza e accuratezza. MobileLLM dimostra prestazioni notevoli, con le varianti da 125M e 350M che superano fino al 4.3% i precedenti modelli all'avanguardia della stessa scala in attività di ragionamento di buon senso a zero-shot.
Caratteristiche
- Architettura del trasformatore ottimizzata per LLM con parametri inferiori a un miliardo
- Combina l'attivazione di SwiGLU, la condivisione dell'incorporamento e l'attenzione alle query raggruppate
- Supporta il pre-addestramento multi-nodo distribuito con PyTorch ≥ 2.0
- Fornisce risultati di ragionamento zero-shot all'avanguardia su più attività
- Include pipeline di formazione e valutazione riproducibili per più dimensioni di modello
- Filosofia di progettazione scalabile che si estende da 125 milioni a 1.5 miliardi di parametri
Linguaggio di programmazione
Python, shell Unix
Categorie
Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/mobilellm.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.