Téléchargement des modèles LLaMA pour Windows

Il s'agit de l'application Windows LLaMA Models, dont la dernière version est téléchargeable sous le code source v0.2.0. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.

 
 

Téléchargez et exécutez en ligne gratuitement cette application nommée LLaMA Models avec OnWorks.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.

- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application et installez-la.

- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.

Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.

CAPTURES D'ÉCRAN:


Modèles LLaMA


DESCRIPTION:

Ce dépôt sert de plateforme centrale pour la famille de modèles de base Llama, consolidant les fiches de modèles, les licences et les politiques d'utilisation, ainsi que les utilitaires permettant l'inférence et le réglage fin entre les versions. Il relie les autres composants de la pile (comme les outils de sécurité et les SDK de développement) et fournit des références canoniques pour les variantes de modèles et leur utilisation prévue. Les issues et les versions du projet constituent un point de coordination actif pour l'écosystème, où sont publiés les conseils, les utilitaires et les notes de compatibilité. Il complète les dépôts distincts contenant le code et les démonstrations (par exemple, les noyaux d'inférence ou le contenu des livres de recettes) en y conservant des métadonnées et des spécifications faisant autorité. Les lignées de modèles et les variantes de taille sont documentées en externe (par exemple, Llama 3.x et versions ultérieures), ce dépôt fournissant les liens et les utilitaires « source unique de vérité ». En pratique, les équipes utilisent llama-models comme référence pour la sélection des variantes, l'alignement des licences et l'intégration de scripts d'aide au déploiement.



Comment ça marche

  • Cartes modèles centralisées et informations sur les licences
  • Utilitaires et scripts de référence pour les modèles Llama
  • Pointeurs canoniques vers les piles d'inférence et de réglage fin
  • Coordination de l'écosystème via les enjeux et la documentation
  • Notes de compatibilité entre les versions et variantes de Llama
  • Source de vérité pour les politiques et les conseils d'utilisation


Langage de programmation

Python


Catégories

Grands modèles de langage (LLM)

Cette application peut également être téléchargée depuis https://sourceforge.net/projects/llama-models.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.



Derniers programmes en ligne Linux et Windows


Catégories à télécharger Logiciels et programmes pour Windows et Linux