GoGPT Best VPN GoSearch

favicon do OnWorks

Baixar LLaMA para Windows

Baixe gratuitamente o aplicativo LLaMA para Windows para executar o Win Wine online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo para Windows chamado LLaMA, cuja versão mais recente pode ser baixada como llamav2sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.

Baixe e execute on-line este aplicativo chamado LLaMA com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.

- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo e instale-o.

- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.

Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.

SCREENSHOTS

Ad


chamadas


DESCRIÇÃO

“Llama” é o repositório do Meta (antigo Facebook/Meta Research) que contém o código de inferência para modelos LLaMA (Large Language Model Meta AI). Ele fornece utilitários para carregar pesos de modelos LLaMA pré-treinados, executar inferências (geração de texto, bate-papo, complementações) e trabalhar com tokenizadores. Este repositório é uma parte essencial da infraestrutura do modelo Llama, usado por pesquisadores e desenvolvedores para executar modelos LLaMA localmente ou em sua infraestrutura. Ele é destinado à inferência (não ao treinamento do zero) e se conecta a aspectos como cartões de modelo, uso responsável, licenciamento, etc.



Recursos

  • Fornece código de referência para carregar vários pesos pré-treinados LLaMA (7B, 13B, 70B, etc.) e realizar inferência (bate-papo ou conclusão)
  • Utilitários de tokenizador, scripts de download, auxiliares de shell para buscar pesos de modelo com licenciamento/permissões corretas
  • Suporte para configurações multiparâmetros (tamanho do lote, comprimento do contexto, número de GPUs/paralelismo) para escalar para modelos/máquinas maiores
  • Orientação sobre licença/uso responsável; um cartão modelo e documentação sobre como o modelo pode ser usado ou restrito
  • Inclui scripts de exemplo para conclusões de bate-papo e conclusões de texto para mostrar como chamar os modelos no código
  • Compatibilidade com estruturas de aprendizado profundo padrão (PyTorch etc.) para uso de inferência, incluindo a garantia de que as dependências necessárias e os scripts de configuração sejam incluídos


Linguagem de Programação

Python


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad




×
Anúncios
❤ ️Compre, reserve ou compre aqui — sem custos, ajuda a manter os serviços gratuitos.