Dit is de Windows-app LLaMA Models, waarvan de nieuwste versie kan worden gedownload als v0.2.0sourcecode.tar.gz. Deze kan online worden uitgevoerd via de gratis hostingprovider OnWorks voor werkstations.
Download en gebruik online gratis deze app met de naam LLaMA Models met OnWorks.
Volg deze instructies om deze app uit te voeren:
- 1. Download deze applicatie op uw pc.
- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.
- 3. Upload deze applicatie in zo'n bestandsbeheerder.
- 4. Start een OS OnWorks online emulator vanaf deze website, maar een betere Windows online emulator.
- 5. Ga vanuit het OnWorks Windows-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.
- 6. Download de applicatie en installeer deze.
- 7. Download Wine van de softwarebronnen voor Linux-distributies. Eenmaal geïnstalleerd, kunt u vervolgens dubbelklikken op de app om ze met Wine uit te voeren. Je kunt ook PlayOnLinux proberen, een mooie interface via Wine waarmee je populaire Windows-programma's en -games kunt installeren.
Wine is een manier om Windows-software op Linux uit te voeren, maar zonder dat Windows vereist is. Wine is een open-source Windows-compatibiliteitslaag die Windows-programma's rechtstreeks op elke Linux-desktop kan uitvoeren. In wezen probeert Wine genoeg van Windows opnieuw te implementeren, zodat het al die Windows-applicaties kan draaien zonder Windows echt nodig te hebben.
SCHERMSCHERMEN:
LLaMA-modellen
BESCHRIJVING:
Deze repository fungeert als centrale hub voor de Llama Foundation-modelfamilie en consolideert modelkaarten, licenties en gebruiksbeleid, evenals hulpprogramma's die inferentie en finetuning tussen releases ondersteunen. Het verbindt andere stackcomponenten (zoals veiligheidstools en SDK's voor ontwikkelaars) en biedt canonieke referenties voor modelvarianten en hun beoogde gebruik. De issues en releases van het project weerspiegelen een actief gebruikt coördinatiepunt voor het ecosysteem, waar richtlijnen, hulpprogramma's en compatibiliteitsnotities worden gepubliceerd. Het vormt een aanvulling op afzonderlijke repositories met code en demo's (bijvoorbeeld inferentiekernels of cookbook-inhoud) door hier gezaghebbende metadata en specificaties te bewaren. Modelafstammingen en groottevarianten worden extern gedocumenteerd (bijvoorbeeld Llama 3.x en hoger), waarbij deze repository de 'single source of truth'-koppelingen en hulpprogramma's biedt. In de praktijk gebruiken teams llama-modellen als referentie bij het selecteren van varianten, het afstemmen van licenties en het integreren van helperscripts voor implementatie.
Kenmerken
- Gecentraliseerde modelkaarten en licentie-informatie
- Hulpprogramma's en referentiescripts voor Llama-modellen
- Canonieke pointers voor inferentie en het finetunen van stacks
- Coördinatie van ecosystemen via problemen en documentatie
- Compatibiliteitsnotities voor alle Llama-releases en -varianten
- Bron van waarheid voor beleid en gebruiksrichtlijnen
Programmeertaal
Python
Categorieën
Deze applicatie kan ook worden gedownload van https://sourceforge.net/projects/llama-models.mirror/. Deze is gehost in OnWorks, zodat deze eenvoudig online kan worden uitgevoerd via een van onze gratis besturingssystemen.