EnglischFranzösischSpanisch

Ad


OnWorks-Favicon

ChatLLM Web-Download für Windows

Laden Sie die ChatLLM Web-Windows-App kostenlos herunter, um Win Wine online in Ubuntu online, Fedora online oder Debian online auszuführen

Dies ist die Windows-App namens ChatLLM Web, deren neueste Version als v1.0.0.zip heruntergeladen werden kann. Es kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

Laden Sie diese App namens ChatLLM Web mit OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.

- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter und installieren Sie sie.

- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.

Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.

SCREENSHOTS

Ad


ChatLLM-Web


BESCHREIBUNG

Chatten Sie mit LLM wie Vicuna vollständig in Ihrem Browser mit WebGPU, sicher, privat und ohne Server. Unterstützt von web-llm. Um diese App nutzen zu können, benötigen Sie einen Browser, der WebGPU unterstützt, z. B. Chrome 113 oder Chrome Canary. Chrome-Versionen ≤ 112 werden nicht unterstützt. Sie benötigen eine GPU mit etwa 6.4 GB Speicher. Wenn Ihre GPU über weniger Arbeitsspeicher verfügt, wird die App weiterhin ausgeführt, die Reaktionszeit ist jedoch langsamer. Wenn Sie die App zum ersten Mal verwenden, müssen Sie das Modell herunterladen. Für das Vicuna-7b-Modell, das wir derzeit verwenden, beträgt die Downloadgröße etwa 4 GB. Nach dem ersten Download wird das Modell zur schnelleren Nutzung aus dem Browser-Cache geladen.



Eigenschaften

  • Alles läuft im Browser ohne Serverunterstützung und wird mit WebGPU beschleunigt
  • Das Modell wird in einem Web-Worker ausgeführt, um sicherzustellen, dass es die Benutzeroberfläche nicht blockiert und ein nahtloses Erlebnis bietet
  • Einfache, kostenlose Bereitstellung mit einem Klick auf Vercel in weniger als 1 Minute, dann erhalten Sie Ihr eigenes ChatLLM-Web
  • Modell-Caching wird unterstützt, sodass Sie das Modell nur einmal herunterladen müssen
  • Multi-Konversations-Chat, bei dem alle Daten aus Datenschutzgründen lokal im Browser gespeichert werden
  • Unterstützung für Markdown und Streaming-Antworten: Mathematik, Code-Hervorhebung usw.


Programmiersprache

JavaScript


Kategorien

Große Sprachmodelle (LLM)

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/chatllm-web.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.


Kostenlose Server & Workstations

Laden Sie Windows- und Linux-Apps herunter

Linux-Befehle

Ad