GoGPT Best VPN GoSearch

Icône de favori OnWorks

ChatGLM-6B download for Windows

Free download ChatGLM-6B Windows app to run online win Wine in Ubuntu online, Fedora online or Debian online

This is the Windows app named ChatGLM-6B whose latest release can be downloaded as ChatGLM-6Bsourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.

Téléchargez et exécutez en ligne cette application nommée ChatGLM-6B avec OnWorks gratuitement.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.

- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application et installez-la.

- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.

Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.

CAPTURES D'ÉCRAN

Ad


ChatGLM-6B


DESCRIPTION

ChatGLM-6B est un modèle de langage conversationnel bilingue (chinois + anglais) ouvert, basé sur l'architecture GLM, avec environ 6.2 milliards de paramètres. Le projet fournit du code d'inférence, des démonstrations (ligne de commande, web, API), la prise en charge de la quantification pour un déploiement à faible consommation de mémoire et des outils de réglage fin (par exemple, via P-Tuning v2). Optimisé pour le dialogue et les questions-réponses, il offre un équilibre entre performances et déployabilité sur des configurations matérielles grand public. Prise en charge de l'inférence quantifiée (INT4, INT8) pour réduire les besoins en mémoire GPU. Basculement automatique entre les compromis précision/mémoire (complet/quantifié).



Comment ça marche

  • Capacité de dialogue bilingue (chinois et anglais)
  • Prise en charge de l'inférence quantifiée (INT4, INT8) pour réduire les besoins en mémoire du GPU
  • Réglage fin efficace des paramètres (méthode P-Tuning v2)
  • Interfaces CLI, démo Web et API incluses
  • Commutation automatique du mode entre les compromis précision/mémoire (complet/quantifié)
  • Intégration avec l'écosystème Hugging Face / Transformers (trust_remote_code, chargement de modèle, tokenisation)


Langage de programmation

Python


Catégories

Grands modèles de langage (LLM), modèles d'IA

Cette application peut également être téléchargée depuis https://sourceforge.net/projects/chatglm-6b.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.