Scarica MobileLLM per Linux

Questa è l'app Linux denominata MobileLLM, la cui ultima versione può essere scaricata come MobileLLMsourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.

 
 

Scarica ed esegui online gratuitamente questa app chiamata MobileLLM con OnWorks.

Segui queste istruzioni per eseguire questa app:

- 1. Scaricata questa applicazione sul tuo PC.

- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 3. Carica questa applicazione in tale file manager.

- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.

- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 6. Scarica l'applicazione, installala ed eseguila.

IMMAGINI:


MobileLLM


DESCRIZIONE:

MobileLLM è un framework leggero per modelli linguistici di grandi dimensioni (LLM) sviluppato da Facebook Research, ottimizzato per l'implementazione su dispositivi in ​​cui l'efficienza computazionale e di memoria sono fondamentali. Presentato nel documento ICML 2024 "MobileLLM: Ottimizzazione di modelli linguistici con parametri inferiori a un miliardo per casi d'uso su dispositivi", si concentra sull'offerta di solide capacità di ragionamento e generalizzazione in modelli con un numero di parametri inferiore a un miliardo. Il framework integra diverse innovazioni architetturali – attivazione SwiGLU, progettazione di reti profonde e sottili, condivisione dell'embedding e attenzione alle query raggruppate (GQA) – per raggiungere un compromesso ottimale tra dimensioni del modello, velocità di inferenza e accuratezza. MobileLLM dimostra prestazioni notevoli, con le varianti da 125M e 350M che superano fino al 4.3% i precedenti modelli all'avanguardia della stessa scala in attività di ragionamento di buon senso a zero-shot.



Caratteristiche

  • Architettura del trasformatore ottimizzata per LLM con parametri inferiori a un miliardo
  • Combina l'attivazione di SwiGLU, la condivisione dell'incorporamento e l'attenzione alle query raggruppate
  • Supporta il pre-addestramento multi-nodo distribuito con PyTorch ≥ 2.0
  • Fornisce risultati di ragionamento zero-shot all'avanguardia su più attività
  • Include pipeline di formazione e valutazione riproducibili per più dimensioni di modello
  • Filosofia di progettazione scalabile che si estende da 125 milioni a 1.5 miliardi di parametri


Linguaggio di programmazione

Python, shell Unix


Categorie

Modelli linguistici di grandi dimensioni (LLM)

Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/mobilellm.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.



Gli ultimi programmi online per Linux e Windows


Categorie per scaricare software e programmi per Windows e Linux