Este é o aplicativo para Windows chamado KubeAI, cuja versão mais recente pode ser baixada como helm-chart-kubeai-0.21.0sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute on-line este aplicativo chamado KubeAI com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
CAPTURAS DE TELA:
KubeAI
DESCRIÇÃO:
Execute inferências no Kubernetes: LLMs, embeddings e conversão de voz em texto. O KubeAI oferece uma API HTTP compatível com OpenAI. Os administradores podem configurar modelos de ML usando os Recursos Personalizados do Kubernetes. O KubeAI pode ser considerado um Operador de Modelo (consulte o Padrão de Operador) que gerencia servidores vLLM e Ollama.
Recursos
- Substituição imediata para OpenAI com compatibilidade de API
- Atender os principais modelos OSS (LLMs, Whisper, etc.)
- Multiplataforma: somente CPU, GPU, em breve: TPU
- Escala de zero, escala automática com base na carga
- Zero dependências (não depende do Istio, Knative, etc.)
- Interface de bate-papo incluída (OpenWebUI)
- Opera servidores de modelo OSS (vLLM, Ollama, FasterWhisper, Infinity)
- Inferência de fluxo/lote por meio de integrações de mensagens (Kafka, PubSub, etc.)
Linguagem de Programação
Go
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/kubeai.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.