Dit is de Windows-app LocalAI, waarvan de nieuwste versie kan worden gedownload als v3.5.0sourcecode.zip. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.
Download en voer deze app genaamd LocalAI gratis uit met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start een OS OnWorks online emulator vanaf deze website, maar een betere Windows online emulator.
- 5. Ga vanuit het OnWorks Windows-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie en installeer deze.
- 7. Download Wine van de softwarebronnen voor Linux-distributies. Eenmaal geïnstalleerd, kunt u vervolgens dubbelklikken op de app om ze met Wine uit te voeren. Je kunt ook PlayOnLinux proberen, een mooie interface via Wine waarmee je populaire Windows-programma's en -games kunt installeren.
Wine is een manier om Windows-software op Linux uit te voeren, maar zonder dat Windows vereist is. Wine is een open-source Windows-compatibiliteitslaag die Windows-programma's rechtstreeks op elke Linux-desktop kan uitvoeren. In wezen probeert Wine genoeg van Windows opnieuw te implementeren, zodat het al die Windows-applicaties kan draaien zonder Windows echt nodig te hebben.
SCREENSHOTS
Ad
LokaleAI
PRODUCTBESCHRIJVING
Zelf-gehoste, door de gemeenschap aangestuurde, lokale OpenAI-compatibele API. Drop-in vervanging voor OpenAI met LLM's op consumentenhardware. Gratis Open Source OpenAI-alternatief. Er is geen GPU vereist. Voert ggml, GPTQ, onnx, TF-compatibele modellen uit: lama, gpt4all, rwkv, fluisteren, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder en vele anderen. LocalAI is een drop-in vervangende REST API die compatibel is met OpenAI API-specificaties voor lokale inferentie. Hiermee kunt u LLM's (en niet alleen) lokaal of op locatie uitvoeren met hardware van consumentenkwaliteit, waarbij meerdere modelfamilies worden ondersteund die compatibel zijn met het ggml-formaat. Vereist geen GPU.
Kenmerken
- Lokale, OpenAI drop-in alternatieve REST API
- GEEN GPU vereist
- Ondersteunt meerdere modellen
- Eenmaal voor de eerste keer geladen, blijven de modellen in het geheugen geladen voor snellere gevolgtrekkingen
- Shell-out niet, maar gebruikt C++-bindingen voor snellere gevolgtrekking en betere prestaties
- U bent eigenaar van uw gegevens
Programmeertaal
Go
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/localai.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.