GoGPT Best VPN GoSearch

favicon do OnWorks

Baixar LLaMA.go para Windows

Baixe gratuitamente o aplicativo LLaMA.go para Windows para rodar o Win Wine online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo do Windows denominado LLaMA.go, cuja versão mais recente pode ser baixada como v1.4_ServerMode.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado LLaMA.go com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.

- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo e instale-o.

- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.

Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.

SCREENSHOTS

Ad


LLaMA.go


DESCRIÇÃO

llama.go é como llama.cpp em Golang puro. O código do projeto é baseado no lendário framework ggml.cpp de Georgi Gerganov escrito em C++ com a mesma atitude em relação ao desempenho e elegância. Ambos os modelos armazenam pesos FP32, então você precisará de pelo menos 32 Gb de RAM (não VRAM ou GPU RAM) para LLaMA-7B. Dobre para 64 Gb para LLaMA-13B.



Recursos

  • Matemática tensorial em Golang puro
  • Implementar arquitetura de rede neural LLaMA e carregamento de modelo
  • Teste com modelo LLaMA-7B menor
  • Certifique-se de que a inferência Go funcione exatamente da mesma maneira que C++
  • Deixe ir brilhar! Habilite multithreading e mensagens para aumentar o desempenho
  • Compatibilidade entre plataformas com Mac, Linux e Windows


Linguagem de Programação

Go


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama-go.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad




×
Anúncios
❤ ️Compre, reserve ou compre aqui — sem custos, ajuda a manter os serviços gratuitos.