Il s'agit de l'application Windows LLaMA, dont la dernière version est téléchargeable sous le nom llamav2sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée LLaMA avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Lama
DESCRIPTION
« Llama » est le dépôt de Meta (anciennement Facebook/Meta Research) contenant le code d'inférence des modèles LLaMA (Large Language Model Meta AI). Il fournit des utilitaires pour charger des pondérations de modèles LLaMA pré-entraînées, exécuter des inférences (génération de texte, chat, complétions) et utiliser des tokenizers. Ce dépôt est un élément central de l'infrastructure du modèle Llama, utilisé par les chercheurs et les développeurs pour exécuter des modèles LLaMA localement ou dans leur infrastructure. Il est conçu pour l'inférence (et non pour l'apprentissage ex nihilo) et intègre des aspects tels que les cartes de modèles, l'utilisation responsable, les licences, etc.
Caractéristiques
- Fournit un code de référence pour charger divers poids pré-entraînés LLaMA (7B, 13B, 70B, etc.) et effectuer une inférence (chat ou complétion)
- Utilitaires de tokenisation, scripts de téléchargement, assistants shell pour récupérer les poids des modèles avec les licences/autorisations correctes
- Prise en charge des configurations multi-paramètres (taille du lot, longueur du contexte, nombre de GPU / parallélisme) pour s'adapter à des modèles / machines plus grands
- Guide de licence/d'utilisation responsable ; une carte modèle et une documentation expliquant comment le modèle peut être utilisé ou restreint
- Inclut des exemples de scripts pour les complétions de chat et les complétions de texte pour montrer comment appeler les modèles dans le code
- Compatibilité avec les frameworks d'apprentissage profond standard (PyTorch, etc.) pour l'utilisation de l'inférence, y compris la garantie que les dépendances et les scripts de configuration requis sont inclus
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/llama.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.