Il s'agit de l'application Windows LLaMA 3, dont la dernière version est téléchargeable sous le nom llama3sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée LLaMA 3 avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN:
LLaMA3
DESCRIPTION:
Ce dépôt hébergeait auparavant les artefacts de modèles et le code de démarrage de Llama 3. Il couvrait des variantes pré-entraînées et optimisées par les instructions pour plusieurs tailles de paramètres. Il a introduit le packaging public des pondérations, des licences et des exemples de démarrage rapide, aidant les développeurs à affiner ou à exécuter les modèles localement et sur des piles de service communes. Avec l'évolution de la pile Llama, Meta a consolidé les dépôts et a marqué celui-ci comme obsolète, orientant les utilisateurs vers des plateformes plus récentes et centralisées pour les modèles, les utilitaires et la documentation. Même obsolète, il documente le chemin de transition et conserve des références qui clarifient l'intégration des versions de Llama 3 dans l'écosystème actuel. Concrètement, il a servi de passerelle entre Llama 2 et les versions ultérieures de Llama en standardisant la distribution et le code de démarrage pour l'inférence et l'affinage. Les équipes le considèrent toujours comme une référence historique pour la lignée des versions et les notes de migration.
Comment ça marche
- Code de démarrage pour l'inférence et le réglage fin avec Llama 3
- Plusieurs tailles de modèles pour équilibrer la latence et la qualité
- Pointeurs de migration vers les référentiels et outils Llama actuels
- Des directives claires sur les licences et l'utilisation pour les scénarios commerciaux et de recherche
- Exemples de flux de travail pour le service et l'évaluation
- Référence historique pour la lignée des modèles et les notes de version
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/llama-3.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.