Dit is de Windows-app OpenLLM, waarvan de nieuwste versie kan worden gedownload als v0.3.9sourcecode.zip. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.
Download en voer deze app genaamd OpenLLM gratis online uit met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start een OS OnWorks online emulator vanaf deze website, maar een betere Windows online emulator.
- 5. Ga vanuit het OnWorks Windows-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie en installeer deze.
- 7. Download Wine van de softwarebronnen voor Linux-distributies. Eenmaal geïnstalleerd, kunt u vervolgens dubbelklikken op de app om ze met Wine uit te voeren. Je kunt ook PlayOnLinux proberen, een mooie interface via Wine waarmee je populaire Windows-programma's en -games kunt installeren.
Wine is een manier om Windows-software op Linux uit te voeren, maar zonder dat Windows vereist is. Wine is een open-source Windows-compatibiliteitslaag die Windows-programma's rechtstreeks op elke Linux-desktop kan uitvoeren. In wezen probeert Wine genoeg van Windows opnieuw te implementeren, zodat het al die Windows-applicaties kan draaien zonder Windows echt nodig te hebben.
SCREENSHOTS
Ad
OpenLLM
PRODUCTBESCHRIJVING
Een open platform voor het gebruik van grote taalmodellen (LLM's) in productie. Verfijn, bedien, implementeer en monitor alle LLM's met gemak. Met OpenLLM kunt u gevolgtrekkingen uitvoeren met alle open source-modellen in grote talen, implementeren in de cloud of op locatie, en krachtige AI-apps bouwen. Ingebouwd ondersteunt een breed scala aan open-source LLM's en modelruntime, waaronder Llama 2, StableLM, Falcon, Dolly, Flan-T5, ChatGLM, StarCoder en meer. Serveer LLM's via RESTful API of gRPC met één opdracht, query via WebUI, CLI, onze Python/Javascript-client of een andere HTTP-client.
Kenmerken
- Verfijn, bedien, implementeer en monitor alle LLM's met gemak
- State-of-the-art LLM's
- Flexibele API's
- Vrijheid om te bouwen
- Stroomlijn de implementatie
- Neem je eigen LLM mee
Programmeertaal
Python
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/openllm.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.