これはOpenLITというWindowsアプリで、最新リリースはpy-1.33.23sourcecode.tar.gzとしてダウンロードできます。ワークステーション向けの無料ホスティングプロバイダーであるOnWorksでオンラインで実行できます。
OnWorks で OpenLIT というアプリを無料でダウンロードしてオンラインで実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
オープンリット
DESCRIPTION
OpenLITは、開発者が本番環境におけるLLMアプリケーションのパフォーマンスに関する洞察を得られるよう設計されたOpenTelemetryネイティブツールです。LLMの入出力メタデータを自動的に収集し、セルフホスト型LLMのGPUパフォーマンスを監視します。OpenLITを使用すると、わずか1行のコードでGenAIプロジェクトにオブザーバビリティを簡単に統合できます。OpenAIやHuggingFaceなどの一般的なLLMプロバイダーと連携する場合でも、ChromaDBなどのベクターデータベースを活用する場合でも、OpenLITはアプリケーションのシームレスな監視を保証し、セルフホスト型LLMのGPUパフォーマンス統計などの重要な洞察を提供することで、パフォーマンスと信頼性を向上させます。このプロジェクトは、OpenTelemetryコミュニティのセマンティックコンベンションに準拠しており、オブザーバビリティの最新標準に合わせて継続的に更新されています。
オプション
- LLM と VectorDB のパフォーマンスの高度な監視
- カスタムおよび微調整されたモデルのコスト追跡
- カスタムおよび微調整されたモデルのコスト追跡
- ドキュメントが利用可能
- OpenTelemetryネイティブおよびベンダー中立のSDK
- 利用可能な例
- OpenLITを使用すると、特定のモデルのコスト追跡をカスタマイズできます。
- OpenLITはOpenTelemetryのネイティブサポートを備えて構築されています
プログラミング言語
Python
カテゴリー
このアプリケーションは、https://sourceforge.net/projects/openlit.mirror/ からも入手できます。OnWorks でホストされているため、無料のオペレーティングシステムから最も簡単にオンラインで実行できます。