Dies ist die Linux-App namens DeepEval, deren neueste Version als NewInterfaces,ReduceETLCode_50_!sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens DeepEval mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
DeepEval
BESCHREIBUNG
DeepEval ist ein benutzerfreundliches Open-Source-LLM-Evaluierungsframework zum Evaluieren und Testen von Modellsystemen großer Sprachen. Es ähnelt Pytest, ist jedoch auf Unit-Tests von LLM-Ergebnissen spezialisiert. DeepEval nutzt neueste Forschungsergebnisse zur Evaluierung von LLM-Ergebnissen anhand von Metriken wie G-Eval, Halluzination, Antwortrelevanz, RAGAS usw. und nutzt LLMs und verschiedene andere NLP-Modelle, die lokal auf Ihrem Rechner zur Evaluierung ausgeführt werden. Egal, ob Ihre Anwendung über RAG, Fine-Tuning, LangChain oder LlamaIndex implementiert ist – DeepEval deckt alles ab. Damit können Sie problemlos die optimalen Hyperparameter bestimmen, um Ihre RAG-Pipeline zu verbessern, Prompt-Drift zu verhindern oder sogar sicher von OpenAI auf Ihr eigenes Llama2-Hosting umzusteigen.
Eigenschaften
- Große Auswahl an einsatzbereiten LLM-Bewertungsmetriken (alle mit Erklärungen), unterstützt von JEDEM LLM Ihrer Wahl
- Red Team-Analyse Ihrer LLM-Anwendung auf über 40 Sicherheitslücken in wenigen Codezeilen
- Dokumentation vorhanden
- Beispiele verfügbar
- Bewerten Sie Ihren gesamten Datensatz parallel in weniger als 20 Zeilen Python-Code. Dies geschieht über die CLI ähnlich wie bei Pytest oder über unsere Funktion evaluate().
- Erstellen Sie Ihre eigenen benutzerdefinierten Metriken, die automatisch in das Ökosystem von DeepEval integriert werden, indem Sie die Basismetrikklasse von DeepEval übernehmen.
Programmiersprache
Python
Kategorien
Diese Anwendung ist auch unter https://sourceforge.net/projects/deepeval.mirror/ verfügbar. Sie wurde in OnWorks gehostet, um die Ausführung online auf einem unserer kostenlosen Betriebssysteme zu vereinfachen.