KubeAI の Windows 用ダウンロード

これはKubeAIというWindowsアプリで、最新リリースはhelm-chart-kubeai-0.21.0sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。

 
 

OnWorks で KubeAI というアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。

-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードしてインストールします。

-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。

WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。

スクリーンショット:


クベAI


説明:

Kubernetes上で推論を実行できます:LLM、埋め込み、音声テキスト変換。KubeAIはOpenAI互換のHTTP APIを提供します。管理者はModel Kubernetesカスタムリソースを使用してMLモデルを設定できます。KubeAIは、vLLMおよびOllamaサーバーを管理するModel Operator(Operatorパターンを参照)と考えることができます。



オプション

  • API互換性を備えたOpenAIの代替品
  • トップ OSS モデル (LLM、Whisper など) にサービスを提供します
  • マルチプラットフォーム: CPUのみ、GPU、近日登場: TPU
  • ゼロからスケールし、負荷に基づいて自動スケールする
  • 依存関係ゼロ (Istio、Knative などに依存しません)
  • チャットUIが含まれています(OpenWebUI)
  • OSSモデルサーバー(vLLM、Ollama、FasterWhisper、Infinity)を運用
  • メッセージング統合によるストリーム/バッチ推論 (Kafka、PubSub など)


プログラミング言語

Go


カテゴリー

大規模言語モデル(LLM)、LLM推論

このアプリケーションは、https://sourceforge.net/projects/kubeai.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。



最新のLinuxおよびWindowsオンラインプログラム


WindowsおよびLinux用のソフトウェアとプログラムをダウンロードするためのカテゴリ