Este é o aplicativo Linux chamado GLM-V, cuja versão mais recente pode ser baixada como GLM-Vsourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado GLM-V com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
GLM-V
DESCRIÇÃO
GLM-V é uma série de modelos de visão e linguagem (VLM) de código aberto da ZhipuAI que estende os modelos básicos do GLM para o raciocínio e a percepção multimodais. O repositório fornece modelos GLM-4.5V e GLM-4.1V, projetados para avançar além da percepção básica em direção ao raciocínio de nível superior, compreensão de contexto longo e aplicações baseadas em agentes. O GLM-4.5V baseia-se na base principal do GLM-4.5-Air (106 bilhões de parâmetros, 12 bilhões ativos), alcançando resultados de última geração em 42 benchmarks em tarefas de imagem, vídeo, documento, GUI e aterramento. Ele introduz treinamento híbrido para raciocínio de amplo espectro e uma alternância no Modo de Pensamento para equilibrar velocidade e profundidade do raciocínio. O GLM-4.1V-9B-Thinking incorpora aprendizado por reforço com amostragem curricular (RLCS) e raciocínio por cadeia de pensamento, superando modelos muito maiores em escala (por exemplo, Qwen-2.5-VL-72B) em muitos benchmarks.
Recursos
- Raciocínio e percepção multimodal bilíngue (chinês/inglês)
- GLM-4.5V: carro-chefe com treinamento híbrido e pontuações de referência de última geração
- GLM-4.1V-9B-Pensamento: modelo focado no raciocínio com mecanismos RLCS e CoT
- Suporte para contexto longo (até 64k) e entrada flexível (imagens, vídeos, documentos)
- Recursos do agente GUI com prompts de reconhecimento de plataforma e aterramento preciso
- Interruptor do modo de pensamento para alternar entre saídas de raciocínio rápido e profundo
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/glm-v.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.
