Dit is de Linux-app ChatLLM.cpp, waarvan de nieuwste versie kan worden gedownload als chatllm_win_x64.7z. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.
Download en gebruik online gratis deze app met de naam ChatLLM.cpp met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.
- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie, installeer hem en voer hem uit.
SCHERMSCHERMEN:
ChatLLM.cpp
BESCHRIJVING:
chatllm.cpp is een pure C++-implementatie, ontworpen voor realtime chatten met Large Language Models (LLM's) op pc's, met ondersteuning voor zowel CPU- als GPU-uitvoering. Het stelt gebruikers in staat om verschillende LLM's te draaien, variërend van minder dan 1 miljard tot meer dan 300 miljard parameters, wat zorgt voor responsieve en efficiënte conversationele AI-ervaringen zonder afhankelijk te zijn van externe servers.
Kenmerken
- Pure C++-implementatie voor LLM-inferentie
- Supports models from 1B to >300B parameters
- Realtime chatmogelijkheden
- Compatibel met CPU- en GPU-uitvoeringen
- Geen afhankelijkheid van externe servers
- Faciliteert responsieve conversatie-AI
- Open source en aanpasbaar
- Integreert met verschillende LLM-architecturen
- Actieve gemeenschapsondersteuning
Programmeertaal
C + +
Categorieën
Deze applicatie kan ook worden gedownload van https://sourceforge.net/projects/chatllm-cpp.mirror/. Deze is gehost in OnWorks, zodat deze eenvoudig online kan worden uitgevoerd via een van onze gratis besturingssystemen.