Questa è l'app Windows denominata OpenLLM la cui ultima versione può essere scaricata come v0.3.9sourcecode.zip. Può essere eseguito online nel provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app denominata OpenLLM con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avvia qualsiasi emulatore online OS OnWorks da questo sito Web, ma migliore emulatore online Windows.
- 5. Dal sistema operativo OnWorks Windows che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione e installala.
- 7. Scarica Wine dai repository software delle tue distribuzioni Linux. Una volta installato, puoi quindi fare doppio clic sull'app per eseguirli con Wine. Puoi anche provare PlayOnLinux, un'interfaccia fantasiosa su Wine che ti aiuterà a installare programmi e giochi Windows popolari.
Wine è un modo per eseguire il software Windows su Linux, ma senza Windows richiesto. Wine è un livello di compatibilità Windows open source in grado di eseguire programmi Windows direttamente su qualsiasi desktop Linux. Essenzialmente, Wine sta cercando di re-implementare abbastanza Windows da zero in modo che possa eseguire tutte quelle applicazioni Windows senza effettivamente bisogno di Windows.
IMMAGINI
Ad
OpenLLM
DESCRIZIONE
Una piattaforma aperta per la gestione di modelli linguistici di grandi dimensioni (LLM) in produzione. Perfeziona, servi, distribuisci e monitora qualsiasi LLM con facilità. Con OpenLLM puoi eseguire l'inferenza con qualsiasi modello open source per linguaggi di grandi dimensioni, distribuirlo nel cloud o in locale e creare potenti app IA. Il supporto integrato supporta un'ampia gamma di LLM open source e runtime di modelli, tra cui Llama 2, StableLM, Falcon, Dolly, Flan-T5, ChatGLM, StarCoder e altri. Servi LLM su API RESTful o gRPC con un comando, esegui query tramite WebUI, CLI, il nostro client Python/Javascript o qualsiasi client HTTP.
Caratteristiche
- Perfeziona, servi, distribuisci e monitora qualsiasi LLM con facilità
- LLM all'avanguardia
- API flessibili
- Libertà di costruire
- Semplifica la distribuzione
- Porta il tuo LLM
Linguaggio di programmazione
Python
Categorie
Questa è un'applicazione che può essere recuperata anche da https://sourceforge.net/projects/openllm.mirror/. È stato ospitato su OnWorks per poter essere eseguito online in modo più semplice da uno dei nostri sistemi operativi gratuiti.