Download do KubeAI para Windows

Este é o aplicativo para Windows chamado KubeAI, cuja versão mais recente pode ser baixada como helm-chart-kubeai-0.21.0sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.

 
 

Baixe e execute on-line este aplicativo chamado KubeAI com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.

- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo e instale-o.

- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.

Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.

CAPTURAS DE TELA:


KubeAI


DESCRIÇÃO:

Execute inferências no Kubernetes: LLMs, embeddings e conversão de voz em texto. O KubeAI oferece uma API HTTP compatível com OpenAI. Os administradores podem configurar modelos de ML usando os Recursos Personalizados do Kubernetes. O KubeAI pode ser considerado um Operador de Modelo (consulte o Padrão de Operador) que gerencia servidores vLLM e Ollama.



Recursos

  • Substituição imediata para OpenAI com compatibilidade de API
  • Atender os principais modelos OSS (LLMs, Whisper, etc.)
  • Multiplataforma: somente CPU, GPU, em breve: TPU
  • Escala de zero, escala automática com base na carga
  • Zero dependências (não depende do Istio, Knative, etc.)
  • Interface de bate-papo incluída (OpenWebUI)
  • Opera servidores de modelo OSS (vLLM, Ollama, FasterWhisper, Infinity)
  • Inferência de fluxo/lote por meio de integrações de mensagens (Kafka, PubSub, etc.)


Linguagem de Programação

Go


Categorias

Grandes Modelos de Linguagem (LLM), Inferência LLM

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/kubeai.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.



Programas online mais recentes para Linux e Windows


Categorias para baixar software e programas para Windows e Linux