GoGPT Best VPN GoSearch

Favicon di OnWorks

Istruzioni seguenti con feedback per il download per Linux

Scarica gratuitamente le seguenti istruzioni con feedback sull'app Linux da eseguire online su Ubuntu online, Fedora online o Debian online

Si tratta dell'app Linux "Seguire le istruzioni con feedback", la cui ultima versione può essere scaricata come following-instructions-human-feedbacksourcecode.tar.gz. Può essere eseguita online sul provider di hosting gratuito OnWorks per workstation.

Scarica ed esegui online gratuitamente questa app chiamata Seguire le istruzioni con feedback con OnWorks.

Segui queste istruzioni per eseguire questa app:

- 1. Scaricata questa applicazione sul tuo PC.

- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 3. Carica questa applicazione in tale file manager.

- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.

- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.

- 6. Scarica l'applicazione, installala ed eseguila.

IMMAGINI

Ad


Seguire le istruzioni con feedback


DESCRIZIONE

Il repository following-instructions-human-feedback contiene il codice e i materiali supplementari alla base del lavoro di OpenAI nell'addestramento di modelli linguistici (modelli InstructGPT) che seguano meglio le istruzioni dell'utente grazie al feedback umano. Il repository ospita la scheda del modello, esempi di output di valutazione automatica e linee guida di etichettatura utilizzate nel processo. È esplicitamente collegato al documento "Addestramento di modelli linguistici per seguire le istruzioni con feedback umano" e funge da riferimento per il modo in cui OpenAI raccoglie le linee guida di annotazione, esegue confronti di preferenze e valuta i comportamenti dei modelli. Il repository non è un'implementazione completa dell'intera pipeline RLHF, ma piuttosto un hub di archiviazione a supporto della ricerca pubblicata, garantendo trasparenza sugli standard di valutazione e di etichettatura umana. Include directory come automatic-eval-samples (esempi di output del modello su attività di benchmark) e un file model-card.md che descrive il comportamento previsto, i limiti e i bias dei modelli InstructGPT.



Caratteristiche

  • Archivio dei risultati dei campioni di valutazione degli esperimenti InstructGPT
  • model-card.md che descrive l'utilizzo del modello, le limitazioni e le considerazioni sulla sicurezza
  • Linee guida per l'etichettatura/istruzioni per l'annotazione utilizzate per i valutatori umani
  • Cartella strutturata "automatic-eval-samples" che mostra gli output di base rispetto a quelli ottimizzati
  • Trasparenza su come OpenAI ha misurato la classificazione e l'allineamento delle preferenze del modello
  • Link e riferimenti al documento di ricerca originale e alla documentazione



Categorie

Istruzione

Questa applicazione può essere scaricata anche da https://sourceforge.net/projects/following-inst-feedback.mirror/. È ospitata su OnWorks per poter essere eseguita online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.


Server e workstation gratuiti

Scarica app per Windows e Linux

Comandi Linux

Ad




×
Cookie per pubblicità
❤️Fai acquisti, prenota o acquista qui: nessun costo, aiuta a mantenere i servizi gratuiti.