Esta es la aplicación para Linux GLM-4.5, cuya última versión se puede descargar como GLM-4.5-main.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada GLM-4.5 con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
GLM-4.5
DESCRIPCIÓN
GLM-4.5 es un modelo de lenguaje grande de código abierto de vanguardia diseñado por Z.ai para aplicaciones de agentes inteligentes. El modelo insignia, GLM-4.5, cuenta con 355 32 millones de parámetros totales y 4.5 106 millones de parámetros activos, mientras que la versión compacta, GLM-12-Air, ofrece 4.5 12 millones de parámetros totales y 3 4.5 millones de parámetros activos. Ambos modelos unifican las capacidades de razonamiento, codificación y agente inteligente, ofreciendo dos modos: un modo de pensamiento para razonamiento complejo y uso de herramientas, y un modo sin pensamiento para respuestas inmediatas. Se publican bajo la licencia MIT, lo que permite su uso comercial y desarrollo secundario. GLM-8 logra un excelente rendimiento en 16 pruebas de referencia estándar de la industria, ocupando el tercer puesto en la clasificación general, mientras que GLM-128-Air equilibra los resultados competitivos con una mayor eficiencia. Los modelos admiten la precisión de FPXNUMX y BFXNUMX, y pueden gestionar ventanas de contexto muy grandes de hasta XNUMX XNUMX tokens. La inferencia flexible se apoya en marcos como vLLM y SGLang, que incluyen analizadores de llamadas a herramientas y razonamiento.
Caracteristicas
- Modelo de cimentación a gran escala con parámetros 355B (32B activos) y variante compacta 106B (12B activos)
- Admite razonamiento híbrido con modos de pensamiento y no pensamiento para una interacción flexible.
- Código abierto bajo licencia MIT, lo que permite el desarrollo comercial y secundario
- Alto rendimiento de referencia en 12 pruebas estándar de la industria, ocupando el tercer lugar en general
- Admite precisión FP8 y BF16 para una inferencia eficiente en GPU modernas
- Longitud de contexto extremadamente larga de hasta 128,000 XNUMX tokens para tareas complejas y de gran escala
- Analizadores de razonamiento y llamadas a herramientas integrados compatibles con los marcos de inferencia vLLM y SGLang
- Admite ajuste fino a través de LoRA, ajuste fino supervisado (SFT) y aprendizaje de refuerzo (RL)
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/glm-4-5/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.