EnglischFranzösischSpanisch

Ad


OnWorks-Favicon

llm-Download für Windows

Laden Sie die llm-Windows-App kostenlos herunter, um Win Wine online in Ubuntu online, Fedora online oder Debian online auszuführen

Dies ist die Windows-App namens llm, deren neueste Version als llm-cli-x86_64-pc-windows-msvc.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

Laden Sie diese App namens llm mit OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.

- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter und installieren Sie sie.

- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.

Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.

SCREENSHOTS

Ad


llm


BESCHREIBUNG

llm ist ein Ökosystem von Rust-Bibliotheken für die Arbeit mit großen Sprachmodellen – es basiert auf der schnellen, effizienten GGML-Bibliothek für maschinelles Lernen. Der primäre Einstiegspunkt für Entwickler ist die LLM-Kiste, die die LLM-Basis und die unterstützten Modellkisten umschließt. Die Dokumentation zur veröffentlichten Version ist auf Docs.rs verfügbar. Für Endbenutzer gibt es eine CLI-Anwendung, llm-cli, die eine praktische Schnittstelle für die Interaktion mit unterstützten Modellen bietet. Die Textgenerierung kann einmalig auf Basis einer Eingabeaufforderung oder interaktiv über REPL- oder Chat-Modi erfolgen. Die CLI kann auch zum Serialisieren (Drucken) dekodierter Modelle, zum Quantisieren von GGML-Dateien oder zum Berechnen der Perplexität eines Modells verwendet werden. Es kann von der neuesten GitHub-Version heruntergeladen oder über crates.io installiert werden.



Eigenschaften

  • llm basiert auf der Tensorbibliothek ggml und zielt darauf ab, die Robustheit und Benutzerfreundlichkeit von Rust in die Welt großer Sprachmodelle zu bringen
  • Dieses Projekt erfordert Rust v1.65.0 oder höher und eine moderne C-Toolchain
  • Die LLM-Bibliothek ist so konzipiert, dass sie Hardwarebeschleuniger wie Cuda und Metal für eine optimierte Leistung nutzt
  • Damit llm diese Beschleuniger nutzen kann, sind einige vorbereitende Konfigurationsschritte erforderlich
  • Der einfachste Weg, mit llm-cli zu beginnen, besteht darin, eine vorgefertigte ausführbare Datei von einer veröffentlichten Version von llm herunterzuladen
  • Standardmäßig unterstützt llm das Remote-Abrufen des Tokenizers aus dem Modell-Hub von Hugging Face


Programmiersprache

Rust


Kategorien

Große Sprachmodelle (LLM)

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/llm.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad