Amazon Best VPN GoSearch

Favicon di OnWorks

Download di LocalAI per Linux

Scarica gratuitamente l'app LocalAI Linux per eseguirla online su Ubuntu online, Fedora online o Debian online

Questa è l'app Linux denominata LocalAI, la cui ultima versione può essere scaricata come v3.5.0sourcecode.zip. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.

Scarica ed esegui online gratuitamente questa app denominata LocalAI con OnWorks.

Segui queste istruzioni per eseguire questa app:

- 1. Scaricata questa applicazione sul tuo PC.

- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 3. Carica questa applicazione in tale file manager.

- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.

- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 6. Scarica l'applicazione, installala ed eseguila.

IMMAGINI

Ad


LocalAI


DESCRIZIONE

API locale compatibile con OpenAI self-hosted, guidata dalla community. Sostituzione immediata per OpenAI che esegue LLM su hardware di livello consumer. Alternativa OpenAI Open Source gratuita. Non è richiesta alcuna GPU. Esegue modelli compatibili ggml, GPTQ, onnx, TF: lama, gpt4all, rwkv, sussurro, vigogna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder e molti altri. LocalAI è un'API REST sostitutiva immediata compatibile con le specifiche dell'API OpenAI per l'inferenza locale. Ti consente di eseguire LLM (e non solo) localmente o on-premise con hardware di livello consumer, supportando più famiglie di modelli compatibili con il formato ggml. Non richiede GPU.



Caratteristiche

  • API REST alternativa drop-in locale OpenAI
  • NON è richiesta alcuna GPU
  • Supporta più modelli
  • Una volta caricato per la prima volta, mantiene i modelli caricati in memoria per un'inferenza più rapida
  • Non esegue il shelling, ma utilizza i collegamenti C++ per un'inferenza più rapida e prestazioni migliori
  • Possiedi i tuoi dati


Linguaggio di programmazione

Go


Categorie

Modelli linguistici di grandi dimensioni (LLM), inferenza LLM

Questa è un'applicazione che può essere recuperata anche da https://sourceforge.net/projects/localai.mirror/. È stato ospitato su OnWorks per poter essere eseguito online in modo più semplice da uno dei nostri sistemi operativi gratuiti.


Server e workstation gratuiti

Scarica app per Windows e Linux

Comandi Linux

Ad




×
Cookie per pubblicità
❤️Fai acquisti, prenota o acquista qui: nessun costo, aiuta a mantenere i servizi gratuiti.