GoGPT Best VPN GoSearch

favicon do OnWorks

Download do GLM-4.5 para Linux

Download gratuito do aplicativo GLM-4.5 Linux para rodar online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo Linux chamado GLM-4.5, cuja versão mais recente pode ser baixada como GLM-4.5-main.zip. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.

Baixe e execute on-line este aplicativo chamado GLM-4.5 com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.

- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo, instale-o e execute-o.

SCREENSHOTS

Ad


GLM-4.5


DESCRIÇÃO

O GLM-4.5 é um modelo de linguagem de código aberto de ponta, desenvolvido pela Z.ai para aplicações de agentes inteligentes. O modelo principal, o GLM-4.5, possui 355 bilhões de parâmetros totais, com 32 bilhões de parâmetros ativos, enquanto a versão compacta, o GLM-4.5-Air, oferece 106 bilhões de parâmetros totais e 12 bilhões de parâmetros ativos. Ambos os modelos unificam raciocínio, codificação e recursos de agentes inteligentes, fornecendo dois modos: um modo de raciocínio para raciocínio complexo e uso de ferramentas, e um modo não-pensante para respostas imediatas. Eles são lançados sob a licença do MIT, permitindo uso comercial e desenvolvimento secundário. O GLM-4.5 alcança forte desempenho em 12 benchmarks padrão da indústria, ocupando o 3º lugar geral, enquanto o GLM-4.5-Air equilibra resultados competitivos com maior eficiência. Os modelos suportam precisão FP8 e BF16 e podem lidar com janelas de contexto muito grandes, de até 128 mil tokens. A inferência flexível é suportada por frameworks como vLLM e SGLang, com analisadores de chamada de ferramenta e raciocínio incluídos.



Recursos

  • Modelo de fundação em larga escala com parâmetros 355B (32B ativos) e variante compacta 106B (12B ativos)
  • Suporta raciocínio híbrido com modos de pensamento e não pensamento para interação flexível
  • Código aberto sob licença MIT, permitindo desenvolvimento comercial e secundário
  • Alto desempenho de referência em 12 testes padrão da indústria, ficando em 3º lugar geral
  • Suporta precisão FP8 e BF16 para inferência eficiente em GPUs modernas
  • Comprimento de contexto extremamente longo de até 128,000 tokens para tarefas complexas e de grande escala
  • Analisadores de chamada de ferramenta e raciocínio integrados compatíveis com estruturas de inferência vLLM e SGLang
  • Suporta ajuste fino via LoRA, ajuste fino supervisionado (SFT) e aprendizado por reforço (RL)


Linguagem de Programação

Python


Categorias

Grandes Modelos de Linguagem (LLM), Modelos de IA

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/glm-4-5/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad




×
Anúncios
❤ ️Compre, reserve ou compre aqui — sem custos, ajuda a manter os serviços gratuitos.