Il s'agit de l'application Linux GLM-4.5, dont la dernière version est téléchargeable sous le nom GLM-4.5-main.zip. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée GLM-4.5 avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
GLM-4.5
DESCRIPTION
GLM-4.5 est un modèle de langage open source de pointe conçu par Z.ai pour les applications d'agents intelligents. Le modèle phare GLM-4.5 compte 355 milliards de paramètres au total, dont 32 milliards de paramètres actifs, tandis que la version compacte GLM-4.5-Air offre 106 milliards de paramètres au total et 12 milliards de paramètres actifs. Les deux modèles unifient les capacités de raisonnement, de codage et d'agent intelligent, offrant deux modes : un mode de réflexion pour le raisonnement complexe et l'utilisation d'outils, et un mode non-réflexif pour les réponses immédiates. Ils sont publiés sous licence MIT, ce qui permet une utilisation commerciale et un développement secondaire. GLM-4.5 obtient d'excellentes performances sur 12 benchmarks standard du secteur, se classant 3e au classement général, tandis que GLM-4.5-Air allie résultats compétitifs et efficacité accrue. Les modèles prennent en charge la précision FP8 et BF16 et peuvent gérer de très grandes fenêtres contextuelles, jusqu'à 128 XNUMX jetons. L'inférence flexible est prise en charge par des frameworks tels que vLLM et SGLang, avec des analyseurs d'appels d'outils et de raisonnement inclus.
Caractéristiques
- Modèle de fondation à grande échelle avec paramètres 355B (32B actifs) et variante compacte 106B (12B actifs)
- Prend en charge le raisonnement hybride avec des modes de réflexion et de non-réflexion pour une interaction flexible
- Open-source sous licence MIT, permettant le développement commercial et secondaire
- Performances de référence élevées sur 12 tests standard de l'industrie, se classant 3e au classement général
- Prend en charge la précision FP8 et BF16 pour une inférence efficace sur les GPU modernes
- Longueur de contexte extrêmement longue pouvant atteindre 128,000 XNUMX jetons pour des tâches complexes à grande échelle
- Analyseurs d'appels d'outils et de raisonnement intégrés compatibles avec les frameworks d'inférence vLLM et SGLang
- Prend en charge le réglage fin via LoRA, le réglage fin supervisé (SFT) et l'apprentissage par renforcement (RL)
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/glm-4-5/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.