GoGPT Best VPN GoSearch

Icône de favori OnWorks

Téléchargement de KubeAI pour Linux

Téléchargez gratuitement l'application KubeAI Linux pour l'exécuter en ligne dans Ubuntu en ligne, Fedora en ligne ou Debian en ligne

Il s'agit de l'application Linux KubeAI, dont la dernière version est téléchargeable sous le nom helm-chart-kubeai-0.22.0sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.

Téléchargez et exécutez en ligne cette application nommée KubeAI avec OnWorks gratuitement.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN

Ad


KubeAI


DESCRIPTION

Exécutez l'inférence sur Kubernetes : LLM, intégrations, reconnaissance vocale. KubeAI utilise une API HTTP compatible OpenAI. Les administrateurs peuvent configurer des modèles ML à l'aide des ressources personnalisées Kubernetes. KubeAI peut être considéré comme un opérateur de modèle (voir « Modèle d'opérateur ») qui gère les serveurs vLLM et Ollama.



Comment ça marche

  • Remplacement direct d'OpenAI avec compatibilité API
  • Servir les meilleurs modèles OSS (LLM, Whisper, etc.)
  • Multiplateforme : CPU uniquement, GPU, bientôt disponible : TPU
  • Mise à l'échelle à partir de zéro, mise à l'échelle automatique en fonction de la charge
  • Aucune dépendance (ne dépend pas d'Istio, Knative, etc.)
  • Interface de chat incluse (OpenWebUI)
  • Exploite les serveurs de modèles OSS (vLLM, Ollama, FasterWhisper, Infinity)
  • Inférence de flux/lot via des intégrations de messagerie (Kafka, PubSub, etc.)


Langage de programmation

Go


Catégories

Grands modèles de langage (LLM), LLM Inférence

Cette application peut également être téléchargée depuis https://sourceforge.net/projects/kubeai.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.