Esta es la aplicación para Windows llamada GLM-4.5, cuya última versión se puede descargar como GLM-4.5-main.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada GLM-4.5 con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
CAPTURAS DE PANTALLA:
GLM-4.5
DESCRIPCIÓN:
GLM-4.5 es un modelo de lenguaje grande de código abierto de vanguardia diseñado por Z.ai para aplicaciones de agentes inteligentes. El modelo insignia, GLM-4.5, cuenta con 355 32 millones de parámetros totales y 4.5 106 millones de parámetros activos, mientras que la versión compacta, GLM-12-Air, ofrece 4.5 12 millones de parámetros totales y 3 4.5 millones de parámetros activos. Ambos modelos unifican las capacidades de razonamiento, codificación y agente inteligente, ofreciendo dos modos: un modo de pensamiento para razonamiento complejo y uso de herramientas, y un modo sin pensamiento para respuestas inmediatas. Se publican bajo la licencia MIT, lo que permite su uso comercial y desarrollo secundario. GLM-8 logra un excelente rendimiento en 16 pruebas de referencia estándar de la industria, ocupando el tercer puesto en la clasificación general, mientras que GLM-128-Air equilibra los resultados competitivos con una mayor eficiencia. Los modelos admiten la precisión de FPXNUMX y BFXNUMX, y pueden gestionar ventanas de contexto muy grandes de hasta XNUMX XNUMX tokens. La inferencia flexible se apoya en marcos como vLLM y SGLang, que incluyen analizadores de llamadas a herramientas y razonamiento.
Caracteristicas
- Modelo de cimentación a gran escala con parámetros 355B (32B activos) y variante compacta 106B (12B activos)
- Admite razonamiento híbrido con modos de pensamiento y no pensamiento para una interacción flexible.
- Código abierto bajo licencia MIT, lo que permite el desarrollo comercial y secundario
- Alto rendimiento de referencia en 12 pruebas estándar de la industria, ocupando el tercer lugar en general
- Admite precisión FP8 y BF16 para una inferencia eficiente en GPU modernas
- Longitud de contexto extremadamente larga de hasta 128,000 XNUMX tokens para tareas complejas y de gran escala
- Analizadores de razonamiento y llamadas a herramientas integrados compatibles con los marcos de inferencia vLLM y SGLang
- Admite ajuste fino a través de LoRA, ajuste fino supervisado (SFT) y aprendizaje de refuerzo (RL)
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/glm-4-5/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.