This is the Linux app named LLaMA Models whose latest release can be downloaded as v0.2.0sourcecode.tar.gz. It can be run online in the free hosting provider OnWorks for workstations.
Baixe e execute online este aplicativo chamado LLaMA Models com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
CAPTURAS DE TELA:
Modelos LLaMA
DESCRIÇÃO:
Este repositório serve como hub central para a família de modelos Llama Foundation, consolidando cartões de modelo, licenças e políticas de uso, além de utilitários que oferecem suporte à inferência e ao ajuste fino entre as versões. Ele conecta outros componentes da pilha (como ferramentas de segurança e SDKs para desenvolvedores) e fornece referências canônicas para variantes de modelo e seu uso pretendido. Os problemas e lançamentos do projeto refletem um ponto de coordenação usado ativamente para o ecossistema, onde orientações, utilitários e notas de compatibilidade são publicados. Ele complementa repositórios separados que contêm código e demonstrações (por exemplo, kernels de inferência ou conteúdo de livro de receitas), mantendo metadados e especificações confiáveis aqui. Linhagens de modelo e variantes de tamanho são documentadas externamente (por exemplo, Llama 3.x e posteriores), com este repositório fornecendo links e utilitários de "fonte única da verdade". Na prática, as equipes usam llama-models como referência ao selecionar variantes, alinhar licenças e conectar scripts auxiliares para implantação.
Recursos
- Cartões de modelo centralizados e informações de licenciamento
- Utilitários e scripts de referência para modelos Llama
- Ponteiros canônicos para inferência e ajuste fino de pilhas
- Coordenação de ecossistemas por meio de questões e documentação
- Notas de compatibilidade entre versões e variantes do Llama
- Fonte de verdade para políticas e orientações de uso
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama-models.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.