Amazon Best VPN GoSearch

Ulubiona usługa OnWorks

Pobieranie LocalAI dla systemu Linux

Pobierz bezpłatnie aplikację LocalAI Linux do działania online w Ubuntu online, Fedorze online lub Debianie online

This is the Linux app named LocalAI whose latest release can be downloaded as v3.0.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.

Pobierz i uruchom online aplikację o nazwie LocalAI z OnWorks za darmo.

Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:

- 1. Pobrałem tę aplikację na swój komputer.

- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 3. Prześlij tę aplikację w takim menedżerze plików.

- 4. Uruchom emulator online OnWorks Linux lub Windows online lub emulator online MACOS z tej witryny.

- 5. W systemie operacyjnym OnWorks Linux, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 6. Pobierz aplikację, zainstaluj ją i uruchom.

ZRZUTY EKRANU

Ad


Lokalna AI


OPIS

Własny hosting, kierowany przez społeczność, lokalny interfejs API zgodny z OpenAI. Doraźny zamiennik OpenAI obsługujący LLM na sprzęcie klasy konsumenckiej. Bezpłatna alternatywa Open Source OpenAI. Nie jest wymagany żaden procesor graficzny. Obsługuje modele kompatybilne z ggml, GPTQ, onnx, TF: lama, gpt4all, rwkv, szept, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder i wiele innych. LocalAI to zastępczy interfejs API REST, który jest zgodny ze specyfikacjami interfejsu API OpenAI w zakresie wnioskowania lokalnego. Umożliwia uruchamianie LLM (i nie tylko) lokalnie lub lokalnie na sprzęcie klasy konsumenckiej, obsługując wiele rodzin modeli zgodnych z formatem ggml. Nie wymaga procesora graficznego.



Zakładka Charakterystyka

  • Lokalny, alternatywny interfejs API REST OpenAI
  • NIE wymaga procesora graficznego
  • Obsługuje wiele modeli
  • Po pierwszym załadowaniu modele są przechowywane w pamięci, co pozwala na szybsze wnioskowanie
  • Nie działa, ale używa powiązań C++ w celu szybszego wnioskowania i lepszej wydajności
  • Jesteś właścicielem swoich danych


Język programowania

Go


Kategorie

Duże modele językowe (LLM), wnioskowanie LLM

Jest to aplikacja, którą można również pobrać ze strony https://sourceforge.net/projects/localai.mirror/. Został on hostowany w OnWorks, aby można go było uruchomić online w najprostszy sposób z jednego z naszych bezpłatnych systemów operacyjnych.


Darmowe serwery i stacje robocze

Pobierz aplikacje Windows i Linux

Komendy systemu Linux

Ad




×
reklama
❤️Zrób zakupy, zarezerwuj lub kup tutaj — bezpłatnie, co pomaga utrzymać bezpłatne usługi.