Este é o aplicativo Linux chamado llama2.c, cuja versão mais recente pode ser baixada como llama2.csourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado llama2.c com o OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
llama2.c
DESCRIÇÃO
llama2.c é uma implementação minimalista da arquitetura do modelo de linguagem Llama 2, projetada para rodar inteiramente em C puro. Criado por Andrej Karpathy, este projeto oferece uma estrutura educacional e leve para realizar inferências em modelos Llama 2 pequenos, sem dependências externas. Ele fornece um pipeline completo de treinamento e inferência: os modelos podem ser treinados em PyTorch e posteriormente executados usando um programa C conciso de 700 linhas (run.c). Embora tecnicamente possa carregar os modelos oficiais Llama 2 do Meta, o suporte atual é limitado à precisão do fp32, o que significa que o uso prático é limitado a modelos com até 7 bilhões de parâmetros. O objetivo de llama2.c é demonstrar como uma implementação compacta e transparente pode realizar inferências significativas mesmo com modelos pequenos, enfatizando simplicidade, clareza e acessibilidade. O projeto se baseia nas lições do nanoGPT e se inspira no llama.cpp, focando no minimalismo e no valor educacional em detrimento do desempenho em larga escala.
Recursos
- Implementa a arquitetura completa do Llama 2 para treinamento e inferência
- Fornece um mecanismo de inferência compacto de 700 linhas baseado em C (run.c)
- Permite treinar em PyTorch e executar modelos diretamente em C
- Suporta precisão de modelo fp32 para LLMs menores em escala educacional
- Oferece uma implementação limpa e sem dependências para fácil estudo e modificação
- Inspirado em llama.cpp, mas projetado para simplicidade e minimalismo
Linguagem de Programação
C, Pitão
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama2-c.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.