Dit is de Linux-app genaamd llm waarvan de nieuwste release kan worden gedownload als llm-cli-x86_64-pc-windows-msvc.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.
Download en voer deze app genaamd llm gratis online uit met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.
- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie, installeer hem en voer hem uit.
SCREENSHOTS
Ad
lm
PRODUCTBESCHRIJVING
llm is een ecosysteem van Rust-bibliotheken voor het werken met grote taalmodellen - het is gebouwd bovenop de snelle, efficiënte GGML-bibliotheek voor machinaal leren. Het primaire toegangspunt voor ontwikkelaars is de llm-krat, die de llm-basis en de ondersteunde modelkratten omhult. Documentatie voor de vrijgegeven versie is beschikbaar op Docs.rs. Voor eindgebruikers is er een CLI-toepassing, llm-cli, die een handige interface biedt voor interactie met ondersteunde modellen. Het genereren van tekst kan eenmalig gebeuren op basis van een prompt, of interactief via REPL- of chatmodi. De CLI kan ook worden gebruikt om gedecodeerde modellen te serialiseren (af te drukken), GGML-bestanden te kwantiseren of de verwarring van een model te berekenen. Het kan worden gedownload van de nieuwste GitHub-release of door het te installeren vanaf kratten.io.
Kenmerken
- llm wordt mogelijk gemaakt door de ggml-tensorbibliotheek en heeft tot doel de robuustheid en het gebruiksgemak van Rust naar de wereld van grote taalmodellen te brengen
- Dit project is afhankelijk van Rust v1.65.0 of hoger en een moderne C-toolchain
- De llm-bibliotheek is ontworpen om te profiteren van hardwareversnellers zoals cuda en metal voor optimale prestaties
- Om LLM in staat te stellen deze versnellers te benutten, zijn enkele voorbereidende configuratiestappen nodig
- De eenvoudigste manier om aan de slag te gaan met llm-cli is door een vooraf gebouwd uitvoerbaar bestand te downloaden van een uitgebrachte versie van llm
- Standaard bouwt LLM met ondersteuning voor het op afstand ophalen van de tokenizer uit de modelhub van Hugging Face
Programmeertaal
Roest
Categorieën
Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/llm.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.