InglêsFrancêsEspanhol

Ad


favicon do OnWorks

Download LocalAI para Windows

Baixe gratuitamente o aplicativo LocalAI Windows para executar o Win Wine online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo do Windows denominado LocalAI, cuja versão mais recente pode ser baixada como v1.30.0.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado LocalAI com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.

- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo e instale-o.

- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.

Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.

SCREENSHOTS

Ad


IA local


DESCRIÇÃO

API local auto-hospedada, orientada pela comunidade e compatível com OpenAI. Substituição imediata para OpenAI executando LLMs em hardware de consumo. Alternativa OpenAI gratuita de código aberto. Nenhuma GPU é necessária. Executa modelos compatíveis com ggml, GPTQ, onnx, TF: lhama, gpt4all, rwkv, sussurro, vicunha, coala, gpt4all-j, cerebras, falcon, dolly, starcoder e muitos outros. LocalAI é uma API REST de substituição imediata que é compatível com as especificações da API OpenAI para inferência local. Ele permite que você execute LLMs (e não apenas) localmente ou no local com hardware de nível consumidor, suportando várias famílias de modelos compatíveis com o formato ggml. Não requer GPU.



Funcionalidades

  • API REST alternativa local e OpenAI
  • NÃO é necessária GPU
  • Suporta vários modelos
  • Uma vez carregado pela primeira vez, ele mantém os modelos carregados na memória para uma inferência mais rápida
  • Não desembolsa, mas usa ligações C++ para uma inferência mais rápida e melhor desempenho
  • Você possui seus dados


Linguagem de Programação

Go


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/localai.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad