Si tratta dell'app per Windows denominata LLaMA, la cui ultima versione può essere scaricata come llamav2sourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app chiamata LLaMA con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avvia qualsiasi emulatore online OS OnWorks da questo sito Web, ma migliore emulatore online Windows.
- 5. Dal sistema operativo OnWorks Windows che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione e installala.
- 7. Scarica Wine dai repository software delle tue distribuzioni Linux. Una volta installato, puoi quindi fare doppio clic sull'app per eseguirli con Wine. Puoi anche provare PlayOnLinux, un'interfaccia fantasiosa su Wine che ti aiuterà a installare programmi e giochi Windows popolari.
Wine è un modo per eseguire il software Windows su Linux, ma senza Windows richiesto. Wine è un livello di compatibilità Windows open source in grado di eseguire programmi Windows direttamente su qualsiasi desktop Linux. Essenzialmente, Wine sta cercando di re-implementare abbastanza Windows da zero in modo che possa eseguire tutte quelle applicazioni Windows senza effettivamente bisogno di Windows.
IMMAGINI
Ad
Lama
DESCRIZIONE
"Llama" è il repository di Meta (precedentemente Facebook/Meta Research) contenente il codice di inferenza per i modelli LLaMA (Large Language Model Meta AI). Fornisce utilità per caricare pesi pre-addestrati del modello LLaMA, eseguire inferenza (generazione di testo, chat, completamenti) e lavorare con i tokenizzatori. Questo repository è un elemento fondamentale dell'infrastruttura del modello Llama, utilizzato da ricercatori e sviluppatori per eseguire modelli LLaMA localmente o nella propria infrastruttura. È pensato per l'inferenza (non per l'addestramento da zero) e si collega ad aspetti come le schede modello, l'uso responsabile, le licenze, ecc.
Caratteristiche
- Fornisce codice di riferimento per caricare vari pesi pre-addestrati LLaMA (7B, 13B, 70B, ecc.) ed eseguire l'inferenza (chat o completamento)
- Utilità di tokenizzazione, script di download, helper shell per recuperare i pesi del modello con licenze/permessi corretti
- Supporto per configurazioni multiparametro (dimensione batch, lunghezza del contesto, numero di GPU/parallelismo) per la scalabilità su modelli/macchine più grandi
- Guida alla licenza/uso responsabile; una scheda modello e la documentazione su come il modello può essere utilizzato o limitato
- Include script di esempio per il completamento delle chat e del testo per mostrare come chiamare i modelli nel codice
- Compatibilità con framework di deep learning standard (PyTorch ecc.) per l'utilizzo dell'inferenza, inclusa la garanzia che siano incluse le dipendenze e gli script di configurazione richiesti
Linguaggio di programmazione
Python
Categorie
Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/llama.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.