GoGPT Best VPN GoSearch

Ulubiona usługa OnWorks

Pobieranie instrukcji z informacjami zwrotnymi dla systemu Linux

Bezpłatne pobieranie aplikacji Linux zgodnej z instrukcjami i opiniami, którą można uruchomić online w systemie Ubuntu online, Fedora online lub Debian online

To aplikacja dla systemu Linux o nazwie Following Instructions with Feedback, której najnowszą wersję można pobrać jako following-instructions-human-feedbacksourcecode.tar.gz. Można ją uruchomić online w darmowym hostingu OnWorks dla stacji roboczych.

Pobierz bezpłatnie i uruchom w Internecie aplikację Following Instructions with Feedback with OnWorks.

Postępuj zgodnie z tymi instrukcjami, aby uruchomić tę aplikację:

- 1. Pobrałem tę aplikację na swój komputer.

- 2. Wpisz w naszym menedżerze plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 3. Prześlij tę aplikację w takim menedżerze plików.

- 4. Uruchom emulator online OnWorks Linux lub Windows online lub emulator online MACOS z tej witryny.

- 5. W systemie operacyjnym OnWorks Linux, który właśnie uruchomiłeś, przejdź do naszego menedżera plików https://www.onworks.net/myfiles.php?username=XXXXX z wybraną nazwą użytkownika.

- 6. Pobierz aplikację, zainstaluj ją i uruchom.

ZRZUTY EKRANU

Ad


Postępowanie zgodnie z instrukcjami i informacjami zwrotnymi


OPIS

Repozytorium following-instructions-human-feedback zawiera kod i materiały uzupełniające stanowiące podstawę prac OpenAI nad trenowaniem modeli językowych (modeli InstructGPT), które lepiej podążają za instrukcjami użytkownika dzięki sprzężeniu zwrotnemu od człowieka. Repozytorium zawiera kartę modelu, przykładowe wyniki automatycznej ewaluacji oraz wytyczne dotyczące etykietowania stosowane w tym procesie. Jest ono wyraźnie powiązane z dokumentem „Training language models to follow instructions with human feedback” (Trenowanie modeli językowych w celu podążania za instrukcjami dzięki sprzężeniu zwrotnemu od człowieka) i służy jako punkt odniesienia dla sposobu, w jaki OpenAI gromadzi wytyczne dotyczące adnotacji, przeprowadza porównania preferencji i ocenia zachowania modeli. Repozytorium nie jest pełną implementacją całego procesu RLHF, lecz raczej centrum archiwizacji, wspierającym opublikowane badania — zapewniając przejrzystość w zakresie standardów ewaluacji i etykietowania przez człowieka. Zawiera katalogi, takie jak automatic-eval-samples (przykłady wyników modeli w zadaniach testowych) oraz plik model-card.md opisujący zamierzone zachowanie, ograniczenia i błędy modeli InstructGPT.



Funkcje

  • Archiwum wyników próbek ewaluacyjnych z eksperymentów InstructGPT
  • model-card.md opisujący sposób użytkowania modelu, ograniczenia i kwestie bezpieczeństwa
  • Wytyczne dotyczące etykietowania/instrukcje dotyczące adnotacji stosowane przez osoby dokonujące oceny
  • Ustrukturyzowany folder „automatic-eval-samples” pokazujący wyniki bazowe i dostrojone
  • Przejrzystość dotycząca sposobu, w jaki OpenAI mierzył ranking preferencji i dopasowanie modelu
  • Linki i odniesienia do oryginalnej pracy badawczej i dokumentacji



Kategorie

Wykształcenie

Tę aplikację można również pobrać ze strony https://sourceforge.net/projects/following-inst-feedback.mirror/. Została ona umieszczona w OnWorks, aby można ją było uruchomić online w najłatwiejszy sposób z jednego z naszych darmowych systemów operacyjnych.


Darmowe serwery i stacje robocze

Pobierz aplikacje Windows i Linux

Komendy systemu Linux

Ad




×
reklama
❤️Zrób zakupy, zarezerwuj lub kup tutaj — bezpłatnie, co pomaga utrzymać bezpłatne usługi.