Téléchargement de llama2.c pour Linux

Il s'agit de l'application Linux llama2.c, dont la dernière version est téléchargeable sous le nom llama2.csourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.

 
 

Téléchargez et exécutez en ligne cette application nommée llama2.c avec OnWorks gratuitement.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN:


lama2.c


DESCRIPTION:

llama2.c est une implémentation minimaliste de l'architecture du modèle de langage Llama 2, conçue pour fonctionner entièrement en C pur. Créé par Andrej Karpathy, ce projet offre un framework pédagogique et léger pour réaliser des inférences sur de petits modèles Llama 2 sans dépendances externes. Il fournit un pipeline complet d'entraînement et d'inférence : les modèles peuvent être entraînés dans PyTorch puis exécutés à l'aide d'un programme C concis de 700 lignes (run.c). Bien qu'il soit techniquement capable de charger les modèles Llama 2 officiels de Meta, la prise en charge actuelle est limitée à la précision fp32, ce qui limite l'utilisation pratique aux modèles jusqu'à environ 7 milliards de paramètres. L'objectif de llama2.c est de démontrer comment une implémentation compacte et transparente peut réaliser des inférences pertinentes, même avec de petits modèles, en privilégiant la simplicité, la clarté et l'accessibilité. Le projet s'appuie sur les enseignements de nanoGPT et s'inspire de llama.cpp, privilégiant le minimalisme et la valeur pédagogique plutôt que les performances à grande échelle.



Comment ça marche

  • Implémente l'architecture complète de Llama 2 pour la formation et l'inférence
  • Fournit un moteur d'inférence compact basé sur C de 700 lignes (run.c)
  • Permet la formation dans PyTorch et l'exécution de modèles directement en C
  • Prend en charge la précision du modèle fp32 pour les LLM à plus petite échelle et à vocation éducative
  • Offre une implémentation propre et sans dépendance pour une étude et une modification faciles
  • Inspiré de llama.cpp mais conçu pour la simplicité et le minimalisme


Langage de programmation

C, Python


Catégories

Grands modèles de langage (LLM)

Cette application peut également être téléchargée depuis https://sourceforge.net/projects/llama2-c.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.



Derniers programmes en ligne Linux et Windows


Catégories à télécharger Logiciels et programmes pour Windows et Linux