This is the Linux app named LLaMA Models whose latest release can be downloaded as v0.2.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Téléchargez et exécutez en ligne gratuitement cette application nommée LLaMA Models avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN:
Modèles LLaMA
DESCRIPTION:
Ce dépôt sert de plateforme centrale pour la famille de modèles de base Llama, consolidant les fiches de modèles, les licences et les politiques d'utilisation, ainsi que les utilitaires permettant l'inférence et le réglage fin entre les versions. Il relie les autres composants de la pile (comme les outils de sécurité et les SDK de développement) et fournit des références canoniques pour les variantes de modèles et leur utilisation prévue. Les issues et les versions du projet constituent un point de coordination actif pour l'écosystème, où sont publiés les conseils, les utilitaires et les notes de compatibilité. Il complète les dépôts distincts contenant le code et les démonstrations (par exemple, les noyaux d'inférence ou le contenu des livres de recettes) en y conservant des métadonnées et des spécifications faisant autorité. Les lignées de modèles et les variantes de taille sont documentées en externe (par exemple, Llama 3.x et versions ultérieures), ce dépôt fournissant les liens et les utilitaires « source unique de vérité ». En pratique, les équipes utilisent llama-models comme référence pour la sélection des variantes, l'alignement des licences et l'intégration de scripts d'aide au déploiement.
Comment ça marche
- Cartes modèles centralisées et informations sur les licences
- Utilitaires et scripts de référence pour les modèles Llama
- Pointeurs canoniques vers les piles d'inférence et de réglage fin
- Coordination de l'écosystème via les enjeux et la documentation
- Notes de compatibilité entre les versions et variantes de Llama
- Source de vérité pour les politiques et les conseils d'utilisation
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/llama-models.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.