Dies ist die Linux-App namens „Following Instructions with Feedback“, deren neueste Version als following-instructions-human-feedbacksourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App mit dem Namen „Following Instructions with Feedback with OnWorks“ kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS
Ad
Befolgen von Anweisungen mit Feedback
BESCHREIBUNG
Das „following-instructions-human-feedback“-Repository enthält den Code und ergänzende Materialien, die OpenAIs Arbeit an der Schulung von Sprachmodellen (InstructGPT-Modelle) zugrunde liegen, die Benutzeranweisungen durch menschliches Feedback besser befolgen. Das Repository enthält die Modellkarte, Beispiele für automatische Auswertungsergebnisse und die im Prozess verwendeten Kennzeichnungsrichtlinien. Es ist ausdrücklich mit dem Dokument „Training language models to follow instructions with human feedback“ verknüpft und dient als Referenz dafür, wie OpenAI Annotationsrichtlinien sammelt, Präferenzvergleiche durchführt und Modellverhalten bewertet. Das Repository ist keine vollständige Implementierung der gesamten RLHF-Pipeline, sondern vielmehr ein Archivierungs-Hub, der die veröffentlichte Forschung unterstützt und Transparenz in Bezug auf Bewertungs- und menschliche Kennzeichnungsstandards bietet. Es enthält Verzeichnisse wie „automatic-eval-samples“ (Beispiele von Modellergebnissen bei Benchmark-Aufgaben) und eine Datei „model-card.md“, die das beabsichtigte Verhalten, die Einschränkungen und die Verzerrungen der InstructGPT-Modelle beschreibt.
Eigenschaften
- Archiv der Evaluierungsbeispielausgaben aus InstructGPT-Experimenten
- model-card.md beschreibt die Verwendung, Einschränkungen und Sicherheitsaspekte des Modells
- Kennzeichnungsrichtlinien/Anmerkungsanweisungen für menschliche Gutachter
- Strukturierter Ordner „automatic-eval-samples“, der die Basislinie im Vergleich zu den fein abgestimmten Ergebnissen anzeigt
- Transparenz darüber, wie OpenAI die Rangfolge und Ausrichtung der Modellpräferenzen gemessen hat
- Links und Verweise auf die ursprüngliche Forschungsarbeit und Dokumentation
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/following-inst-feedback.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.
