Questa è l'app Linux denominata LocalAI, la cui ultima versione può essere scaricata come v3.5.0sourcecode.zip. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online gratuitamente questa app denominata LocalAI con OnWorks.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI
Ad
LocalAI
DESCRIZIONE
API locale compatibile con OpenAI self-hosted, guidata dalla community. Sostituzione immediata per OpenAI che esegue LLM su hardware di livello consumer. Alternativa OpenAI Open Source gratuita. Non è richiesta alcuna GPU. Esegue modelli compatibili ggml, GPTQ, onnx, TF: lama, gpt4all, rwkv, sussurro, vigogna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder e molti altri. LocalAI è un'API REST sostitutiva immediata compatibile con le specifiche dell'API OpenAI per l'inferenza locale. Ti consente di eseguire LLM (e non solo) localmente o on-premise con hardware di livello consumer, supportando più famiglie di modelli compatibili con il formato ggml. Non richiede GPU.
Caratteristiche
- API REST alternativa drop-in locale OpenAI
- NON è richiesta alcuna GPU
- Supporta più modelli
- Una volta caricato per la prima volta, mantiene i modelli caricati in memoria per un'inferenza più rapida
- Non esegue il shelling, ma utilizza i collegamenti C++ per un'inferenza più rapida e prestazioni migliori
- Possiedi i tuoi dati
Linguaggio di programmazione
Go
Categorie
Questa è un'applicazione che può essere recuperata anche da https://sourceforge.net/projects/localai.mirror/. È stato ospitato su OnWorks per poter essere eseguito online in modo più semplice da uno dei nostri sistemi operativi gratuiti.