これは、promptfoo という名前の Windows アプリで、最新リリースは 0.25.1sourcecode.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。
OnWorks を使用して、promptfoo という名前のこのアプリをオンラインで無料でダウンロードして実行します。
このアプリを実行するには、次の手順に従ってください。
-1。このアプリケーションをPCにダウンロードしました。
--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。
-3。このアプリケーションをそのようなファイルマネージャにアップロードします。
-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。
-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。
-6。アプリケーションをダウンロードしてインストールします。
-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。
WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。
スクリーンショットは
Ad
プロンプトフー
DESCRIPTION
自動評価により高品質の LLM 出力を保証します。 プロンプトを調整する際の主観性を減らすために、ユーザー入力の代表的なサンプルを使用します。 組み込みメトリクス、LLM グレード評価を使用するか、独自のカスタム メトリクスを定義します。 プロンプトとモデル出力を並べて比較したり、ライブラリを既存のテスト/CI ワークフローに統合したりできます。 OpenAI、Anthropic、および Llama や Vicuna などのオープンソース モデルを使用するか、LLM API のカスタム API プロバイダーを統合します。
オプション
- テストケースのリストを作成する
- 評価指標を設定する
- 最適なプロンプトとモデルを選択してください
- プロンプトを調整する際の主観性を減らすために、ユーザー入力の代表的なサンプルを使用します。
- 組み込みメトリクス、LLM グレードの評価を使用するか、独自のカスタム メトリクスを定義します
- プロンプトとモデル出力を並べて比較したり、ライブラリを既存のテスト/CI ワークフローに統合したりできます
プログラミング言語
タイプスクリプト
カテゴリー
これは、https://sourceforge.net/projects/promptfoo.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。