Angielskifrancuskihiszpański

Ad


Ulubiona usługa OnWorks

llm do pobrania dla systemu Windows

Pobierz bezpłatnie aplikację llm dla systemu Windows do uruchamiania online Win Wine w Ubuntu online, Fedorze online lub Debianie online

Jest to aplikacja dla systemu Windows o nazwie llm, której najnowszą wersję można pobrać jako llm-cli-x86_64-pc-windows-msvc.zip. Można go uruchomić online w bezpłatnym dostawcy hostingu OnWorks dla stacji roboczych.

Pobierz i uruchom online tę aplikację o nazwie llm z OnWorks za darmo.

Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:

- 1. Pobrałem tę aplikację na swój komputer.

- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 3. Prześlij tę aplikację w takim menedżerze plików.

- 4. Uruchom dowolny emulator online systemu operacyjnego OnWorks z tej witryny, ale lepszy emulator online systemu Windows.

- 5. W systemie operacyjnym OnWorks Windows, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 6. Pobierz aplikację i zainstaluj ją.

- 7. Pobierz Wine z repozytoriów oprogramowania dystrybucji Linuksa. Po zainstalowaniu możesz dwukrotnie kliknąć aplikację, aby uruchomić ją za pomocą Wine. Możesz także wypróbować PlayOnLinux, fantazyjny interfejs w Wine, który pomoże Ci zainstalować popularne programy i gry Windows.

Wine to sposób na uruchamianie oprogramowania Windows w systemie Linux, ale bez systemu Windows. Wine to warstwa kompatybilności z systemem Windows typu open source, która może uruchamiać programy systemu Windows bezpośrednio na dowolnym pulpicie systemu Linux. Zasadniczo Wine próbuje ponownie zaimplementować system Windows od podstaw, aby mógł uruchamiać wszystkie te aplikacje Windows bez faktycznego korzystania z systemu Windows.

ZRZUTY EKRANU

Ad


llm


OPIS

llm to ekosystem bibliotek Rust do pracy z dużymi modelami językowymi - jest zbudowany na bazie szybkiej i wydajnej biblioteki GGML do uczenia maszynowego. Podstawowym punktem wejścia dla programistów jest skrzynka llm, która otacza bazę llm i obsługiwane skrzynki modeli. Dokumentacja wydanej wersji jest dostępna na Docs.rs. Dla użytkowników końcowych dostępna jest aplikacja CLI llm-cli, która zapewnia wygodny interfejs do interakcji z obsługiwanymi modelami. Generowanie tekstu może odbywać się jednorazowo w oparciu o monit lub interaktywnie w trybie REPL lub czatu. Interfejsu CLI można również używać do serializacji (drukowania) zdekodowanych modeli, kwantyzacji plików GGML lub obliczania złożoności modelu. Można go pobrać z najnowszej wersji GitHub lub instalując z crates.io.



Korzyści

  • llm jest zasilany przez bibliotekę tensorów ggml i ma na celu wprowadzenie solidności i łatwości użycia Rusta do świata dużych modeli językowych
  • Ten projekt zależy od Rusta v1.65.0 lub nowszego i nowoczesnego zestawu narzędzi C
  • Biblioteka llm została zaprojektowana tak, aby wykorzystywać akceleratory sprzętowe, takie jak cuda i metal, w celu zoptymalizowania wydajności
  • Aby umożliwić llm wykorzystanie tych akceleratorów, konieczne jest wykonanie kilku wstępnych kroków konfiguracyjnych
  • Najłatwiejszym sposobem rozpoczęcia pracy z llm-cli jest pobranie gotowego pliku wykonywalnego z wydanej wersji llm
  • Domyślnie llm kompiluje się z obsługą zdalnego pobierania tokenizera z centrum modeli Hugging Face


Język programowania

Rdza


Kategorie

Modele wielkojęzykowe (LLM)

Jest to aplikacja, którą można również pobrać ze strony https://sourceforge.net/projects/llm.mirror/. Został on hostowany w OnWorks, aby można go było uruchomić online w najprostszy sposób z jednego z naszych bezpłatnych systemów operacyjnych.


Darmowe serwery i stacje robocze

Pobierz aplikacje Windows i Linux

Komendy systemu Linux

Ad