これはPruna AIというWindowsアプリで、最新リリースはv0.2.5sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
Pruna AI with OnWorks というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショット:
プルナAI
説明:
Prunaは、オープンソースでセルフホスト可能なAI推論エンジンです。プライベートまたはハイブリッドインフラストラクチャ全体で大規模言語モデル(LLM)を効率的に導入・管理できるよう設計されています。パフォーマンスと開発者のエルゴノミクスを念頭に構築されたPrunaは、マルチモデルオーケストレーション、自動スケーリング、GPUリソース割り当て、そして一般的なオープンソースモデルとの互換性を実現することで、推論ワークフローを簡素化します。外部APIへの依存を減らしながら、スピード、コスト効率、そしてデータとAIスタックの完全な制御を維持したい企業やチームに最適です。拡張性と可観測性に重点を置いたPrunaは、エンジニアがLLMアプリケーションをプロトタイプから本番環境まで安全かつ確実に拡張できるよう支援します。
オプション
- LLM推論を管理するためのセルフホストエンジン
- マルチモデルオーケストレーションとルーティングをサポート
- リソース最適化のための動的オートスケーリング
- GPUを考慮したスケジューリングと負荷分散
- LLaMAやMistralなどのオープンソースモデルと互換性があります
- 簡単に統合できる HTTP および gRPC API
- 組み込みの可観測性とパフォーマンス追跡
- DockerとKubernetesのサポートによりすぐに導入可能
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/pruna-ai.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。