Ito ang Linux app na pinangalanang Sumusunod sa Mga Tagubilin na may Feedback na ang pinakabagong release ay maaaring ma-download bilang following-instructions-human-feedbacksourcecode.tar.gz. Maaari itong patakbuhin online sa libreng hosting provider na OnWorks para sa mga workstation.
I-download at patakbuhin online ang app na ito na pinangalanang Sumusunod sa Mga Tagubilin na may Feedback sa OnWorks nang libre.
Sundin ang mga tagubiling ito upang patakbuhin ang app na ito:
- 1. Na-download ang application na ito sa iyong PC.
- 2. Ipasok sa aming file manager https://www.onworks.net/myfiles.php?username=XXXXX kasama ang username na gusto mo.
- 3. I-upload ang application na ito sa naturang filemanager.
- 4. Simulan ang OnWorks Linux online o Windows online emulator o MACOS online emulator mula sa website na ito.
- 5. Mula sa OnWorks Linux OS na kasisimula mo pa lang, pumunta sa aming file manager https://www.onworks.net/myfiles.php?username=XXXX gamit ang username na gusto mo.
- 6. I-download ang application, i-install ito at patakbuhin ito.
MGA LALAKI
Ad
Pagsunod sa Mga Tagubilin na may Feedback
DESCRIPTION
Ang sumusunod na-instructions-human-feedback repository ay naglalaman ng code at mga pandagdag na materyales na nagpapatibay sa trabaho ng OpenAI sa mga modelo ng wika ng pagsasanay (mga modelo ng InstructGPT) na mas mahusay na sumusunod sa mga tagubilin ng user sa pamamagitan ng feedback ng tao. Ang repo ay nagho-host ng modelong card, sample na awtomatikong pagsusuri na mga output, at mga alituntunin sa pag-label na ginamit sa proseso. Ito ay tahasang nauugnay sa papel na "Pagsasanay sa mga modelo ng wika upang sundin ang mga tagubilin na may feedback ng tao," at nagsisilbing sanggunian para sa kung paano kinokolekta ng OpenAI ang mga alituntunin ng anotasyon, nagpapatakbo ng mga paghahambing ng kagustuhan, at sinusuri ang mga gawi ng modelo. Ang repositoryo ay hindi isang ganap na pagpapatupad ng buong pipeline ng RLHF, ngunit sa halip ay isang archival hub na sumusuporta sa nai-publish na pananaliksik—na nagbibigay ng transparency sa paligid ng pagsusuri at mga pamantayan sa pag-label ng tao. Kabilang dito ang mga direktoryo tulad ng mga automatic-eval-samples (mga sample ng mga output ng modelo sa mga benchmark na gawain) at isang model-card.md na naglalarawan ng nilalayong gawi, limitasyon, at bias ng mga modelo ng InstructGPT.
Mga tampok
- Archive ng mga sample na output ng pagsusuri mula sa mga eksperimento ng InstructGPT
- model-card.md na naglalarawan sa paggamit ng modelo, mga limitasyon, at mga pagsasaalang-alang sa kaligtasan
- Mga alituntunin sa pag-label / mga tagubilin sa anotasyon na ginagamit para sa mga taong evaluator
- Nakabalangkas na folder na "awtomatikong-eval-sample" na nagpapakita ng baseline kumpara sa mga fine-tune na output
- Transparency sa kung paano sinukat ng OpenAI ang pagraranggo at pagkakahanay ng kagustuhan sa modelo
- Mga link at sanggunian sa orihinal na papel ng pananaliksik at dokumentasyon
Kategorya
Ito ay isang application na maaari ding kunin mula sa https://sourceforge.net/projects/following-inst-feedback.mirror/. Na-host ito sa OnWorks upang mapatakbo online sa pinakamadaling paraan mula sa isa sa aming mga libreng Operative System.
