EngelsFransSpaans

Ad


OnWorks-favicon

ChatLLM Webdownload voor Windows

Gratis download ChatLLM Web Windows-app om online win Wine uit te voeren in Ubuntu online, Fedora online of Debian online

Dit is de Windows-app genaamd ChatLLM Web waarvan de nieuwste release kan worden gedownload als v1.0.0.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.

Download en voer deze app met de naam ChatLLM Web gratis uit met OnWorks.

Volg deze instructies om deze app uit te voeren:

- 1. Download deze applicatie op uw pc.

- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.

- 3. Upload deze applicatie in zo'n bestandsbeheerder.

- 4. Start een OS OnWorks online emulator vanaf deze website, maar een betere Windows online emulator.

- 5. Ga vanuit het OnWorks Windows-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.

- 6. Download de applicatie en installeer deze.

- 7. Download Wine van de softwarebronnen voor Linux-distributies. Eenmaal geïnstalleerd, kunt u vervolgens dubbelklikken op de app om ze met Wine uit te voeren. Je kunt ook PlayOnLinux proberen, een mooie interface via Wine waarmee je populaire Windows-programma's en -games kunt installeren.

Wine is een manier om Windows-software op Linux uit te voeren, maar zonder dat Windows vereist is. Wine is een open-source Windows-compatibiliteitslaag die Windows-programma's rechtstreeks op elke Linux-desktop kan uitvoeren. In wezen probeert Wine genoeg van Windows opnieuw te implementeren, zodat het al die Windows-applicaties kan draaien zonder Windows echt nodig te hebben.

SCREENSHOTS

Ad


ChatLLM Web


PRODUCTBESCHRIJVING

Chat met LLM zoals Vicuna volledig in uw browser met WebGPU, veilig, privé en zonder server. Mogelijk gemaakt door web-llm. Om deze app te gebruiken heb je een browser nodig die WebGPU ondersteunt, zoals Chrome 113 of Chrome Canary. Chrome-versies ≤ 112 worden niet ondersteund. Je hebt een GPU nodig met ongeveer 6.4 GB geheugen. Als uw GPU minder geheugen heeft, werkt de app nog steeds, maar is de reactietijd langzamer. De eerste keer dat u de app gebruikt, moet u het model downloaden. Voor het Vicuna-7b-model dat we momenteel gebruiken, is de downloadgrootte ongeveer 4 GB. Na de eerste download wordt het model vanuit de browsercache geladen voor sneller gebruik.



Voordelen

  • Alles draait in de browser zonder serverondersteuning en wordt versneld met WebGPU
  • Het model draait in een webwerker, zodat het de gebruikersinterface niet blokkeert en een naadloze ervaring biedt
  • Gemakkelijk gratis te implementeren met één klik op Vercel in minder dan 1 minuut, waarna u uw eigen ChatLLM Web krijgt
  • Modelcaching wordt ondersteund, zodat u het model slechts één keer hoeft te downloaden
  • Chat met meerdere gesprekken, waarbij alle gegevens lokaal in de browser worden opgeslagen voor privacy
  • Ondersteuning voor markdown- en streamingreacties: wiskunde, codeaccentuering, enz.


Programmeertaal

JavaScript


Categorieën

Grote taalmodellen (LLM)

Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/chatllm-web.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.


Gratis servers en werkstations

Windows- en Linux-apps downloaden

Linux-commando's

Ad