Amazon Best VPN GoSearch

Favicon di OnWorks

Scarica LLaMA per Windows

Scarica gratuitamente l'app LLaMA per Windows per eseguire Wine online su Ubuntu online, Fedora online o Debian online

Si tratta dell'app per Windows denominata LLaMA, la cui ultima versione può essere scaricata come llamav2sourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.

Scarica ed esegui online gratuitamente questa app chiamata LLaMA con OnWorks.

Segui queste istruzioni per eseguire questa app:

- 1. Scaricata questa applicazione sul tuo PC.

- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 3. Carica questa applicazione in tale file manager.

- 4. Avvia qualsiasi emulatore online OS OnWorks da questo sito Web, ma migliore emulatore online Windows.

- 5. Dal sistema operativo OnWorks Windows che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 6. Scarica l'applicazione e installala.

- 7. Scarica Wine dai repository software delle tue distribuzioni Linux. Una volta installato, puoi quindi fare doppio clic sull'app per eseguirli con Wine. Puoi anche provare PlayOnLinux, un'interfaccia fantasiosa su Wine che ti aiuterà a installare programmi e giochi Windows popolari.

Wine è un modo per eseguire il software Windows su Linux, ma senza Windows richiesto. Wine è un livello di compatibilità Windows open source in grado di eseguire programmi Windows direttamente su qualsiasi desktop Linux. Essenzialmente, Wine sta cercando di re-implementare abbastanza Windows da zero in modo che possa eseguire tutte quelle applicazioni Windows senza effettivamente bisogno di Windows.

IMMAGINI

Ad


Lama


DESCRIZIONE

"Llama" è il repository di Meta (precedentemente Facebook/Meta Research) contenente il codice di inferenza per i modelli LLaMA (Large Language Model Meta AI). Fornisce utilità per caricare pesi pre-addestrati del modello LLaMA, eseguire inferenza (generazione di testo, chat, completamenti) e lavorare con i tokenizzatori. Questo repository è un elemento fondamentale dell'infrastruttura del modello Llama, utilizzato da ricercatori e sviluppatori per eseguire modelli LLaMA localmente o nella propria infrastruttura. È pensato per l'inferenza (non per l'addestramento da zero) e si collega ad aspetti come le schede modello, l'uso responsabile, le licenze, ecc.



Caratteristiche

  • Fornisce codice di riferimento per caricare vari pesi pre-addestrati LLaMA (7B, 13B, 70B, ecc.) ed eseguire l'inferenza (chat o completamento)
  • Utilità di tokenizzazione, script di download, helper shell per recuperare i pesi del modello con licenze/permessi corretti
  • Supporto per configurazioni multiparametro (dimensione batch, lunghezza del contesto, numero di GPU/parallelismo) per la scalabilità su modelli/macchine più grandi
  • Guida alla licenza/uso responsabile; una scheda modello e la documentazione su come il modello può essere utilizzato o limitato
  • Include script di esempio per il completamento delle chat e del testo per mostrare come chiamare i modelli nel codice
  • Compatibilità con framework di deep learning standard (PyTorch ecc.) per l'utilizzo dell'inferenza, inclusa la garanzia che siano incluse le dipendenze e gli script di configurazione richiesti


Linguaggio di programmazione

Python


Categorie

Modelli linguistici di grandi dimensioni (LLM)

Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/llama.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.


Server e workstation gratuiti

Scarica app per Windows e Linux

Comandi Linux

Ad




×
Cookie per pubblicità
❤️Fai acquisti, prenota o acquista qui: nessun costo, aiuta a mantenere i servizi gratuiti.