GoGPT Best VPN GoSearch

Ulubiona usługa OnWorks

Pobierz llm dla Linuxa

Bezpłatne pobieranie aplikacji llm Linux do uruchomienia online w Ubuntu online, Fedora online lub Debian online

To jest aplikacja Linux o nazwie llm, której najnowszą wersję można pobrać jako llm-cli-x86_64-pc-windows-msvc.zip. Można ją uruchomić online w darmowym dostawcy hostingu OnWorks dla stacji roboczych.

Pobierz i uruchom online tę aplikację o nazwie llm z OnWorks za darmo.

Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:

- 1. Pobrałem tę aplikację na swój komputer.

- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 3. Prześlij tę aplikację w takim menedżerze plików.

- 4. Uruchom emulator online OnWorks Linux lub Windows online lub emulator online MACOS z tej witryny.

- 5. W systemie operacyjnym OnWorks Linux, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 6. Pobierz aplikację, zainstaluj ją i uruchom.

ZRZUTY EKRANU

Ad


llm


OPIS

llm to ekosystem bibliotek Rust do pracy z dużymi modelami językowymi - jest zbudowany na bazie szybkiej i wydajnej biblioteki GGML do uczenia maszynowego. Podstawowym punktem wejścia dla programistów jest skrzynka llm, która otacza bazę llm i obsługiwane skrzynki modeli. Dokumentacja wydanej wersji jest dostępna na Docs.rs. Dla użytkowników końcowych dostępna jest aplikacja CLI llm-cli, która zapewnia wygodny interfejs do interakcji z obsługiwanymi modelami. Generowanie tekstu może odbywać się jednorazowo w oparciu o monit lub interaktywnie w trybie REPL lub czatu. Interfejsu CLI można również używać do serializacji (drukowania) zdekodowanych modeli, kwantyzacji plików GGML lub obliczania złożoności modelu. Można go pobrać z najnowszej wersji GitHub lub instalując z crates.io.



Funkcjonalności

  • llm jest zasilany przez bibliotekę tensorów ggml i ma na celu wprowadzenie solidności i łatwości użycia Rusta do świata dużych modeli językowych
  • Ten projekt zależy od Rusta v1.65.0 lub nowszego i nowoczesnego zestawu narzędzi C
  • Biblioteka llm została zaprojektowana tak, aby wykorzystywać akceleratory sprzętowe, takie jak cuda i metal, w celu zoptymalizowania wydajności
  • Aby umożliwić llm wykorzystanie tych akceleratorów, konieczne jest wykonanie kilku wstępnych kroków konfiguracyjnych
  • Najłatwiejszym sposobem rozpoczęcia pracy z llm-cli jest pobranie gotowego pliku wykonywalnego z wydanej wersji llm
  • Domyślnie llm kompiluje się z obsługą zdalnego pobierania tokenizera z centrum modeli Hugging Face


Język programowania

Rdza


Kategorie

Modele wielkojęzykowe (LLM)

Jest to aplikacja, którą można również pobrać ze strony https://sourceforge.net/projects/llm.mirror/. Został on hostowany w OnWorks, aby można go było uruchomić online w najprostszy sposób z jednego z naszych bezpłatnych systemów operacyjnych.


Darmowe serwery i stacje robocze

Pobierz aplikacje Windows i Linux

Komendy systemu Linux

Ad




×
reklama
❤️Zrób zakupy, zarezerwuj lub kup tutaj — bezpłatnie, co pomaga utrzymać bezpłatne usługi.