Este é o aplicativo Linux chamado GLM-4.5, cuja versão mais recente pode ser baixada como GLM-4.5-main.zip. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute on-line este aplicativo chamado GLM-4.5 com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
GLM-4.5
DESCRIÇÃO
O GLM-4.5 é um modelo de linguagem de código aberto de ponta, desenvolvido pela Z.ai para aplicações de agentes inteligentes. O modelo principal, o GLM-4.5, possui 355 bilhões de parâmetros totais, com 32 bilhões de parâmetros ativos, enquanto a versão compacta, o GLM-4.5-Air, oferece 106 bilhões de parâmetros totais e 12 bilhões de parâmetros ativos. Ambos os modelos unificam raciocínio, codificação e recursos de agentes inteligentes, fornecendo dois modos: um modo de raciocínio para raciocínio complexo e uso de ferramentas, e um modo não-pensante para respostas imediatas. Eles são lançados sob a licença do MIT, permitindo uso comercial e desenvolvimento secundário. O GLM-4.5 alcança forte desempenho em 12 benchmarks padrão da indústria, ocupando o 3º lugar geral, enquanto o GLM-4.5-Air equilibra resultados competitivos com maior eficiência. Os modelos suportam precisão FP8 e BF16 e podem lidar com janelas de contexto muito grandes, de até 128 mil tokens. A inferência flexível é suportada por frameworks como vLLM e SGLang, com analisadores de chamada de ferramenta e raciocínio incluídos.
Recursos
- Modelo de fundação em larga escala com parâmetros 355B (32B ativos) e variante compacta 106B (12B ativos)
- Suporta raciocínio híbrido com modos de pensamento e não pensamento para interação flexível
- Código aberto sob licença MIT, permitindo desenvolvimento comercial e secundário
- Alto desempenho de referência em 12 testes padrão da indústria, ficando em 3º lugar geral
- Suporta precisão FP8 e BF16 para inferência eficiente em GPUs modernas
- Comprimento de contexto extremamente longo de até 128,000 tokens para tarefas complexas e de grande escala
- Analisadores de chamada de ferramenta e raciocínio integrados compatíveis com estruturas de inferência vLLM e SGLang
- Suporta ajuste fino via LoRA, ajuste fino supervisionado (SFT) e aprendizado por reforço (RL)
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/glm-4-5/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.