EngelsFransSpaans

Ad


OnWorks-favicon

MedicalGPT-download voor Linux

Gratis download MedicalGPT Linux-app om online te draaien in Ubuntu online, Fedora online of Debian online

Dit is de Linux-app genaamd MedicalGPT waarvan de nieuwste release kan worden gedownload als v1.6.0sourcecode.zip. Het kan online worden uitgevoerd in de gratis hostingprovider OnWorks voor werkstations.

Download en voer deze app genaamd MedicalGPT gratis online uit met OnWorks.

Volg deze instructies om deze app uit te voeren:

- 1. Download deze applicatie op uw pc.

- 2. Voer in onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX in met de gebruikersnaam die u wilt.

- 3. Upload deze applicatie in zo'n bestandsbeheerder.

- 4. Start de OnWorks Linux online of Windows online emulator of MACOS online emulator vanaf deze website.

- 5. Ga vanuit het OnWorks Linux-besturingssysteem dat u zojuist hebt gestart naar onze bestandsbeheerder https://www.onworks.net/myfiles.php?username=XXXXX met de gewenste gebruikersnaam.

- 6. Download de applicatie, installeer hem en voer hem uit.

SCREENSHOTS

Ad


MedischGPT


PRODUCTBESCHRIJVING

MedicalGPT-training medisch GPT-model met ChatGPT-trainingspijplijn, implementatie van pretraining, begeleide finetuning, beloningsmodellering en versterkend leren. MedicalGPT traint grote medische modellen, inclusief secundaire voortraining, verfijnde afstemming onder toezicht, beloningsmodellering en training voor versterkend leren.



Voordelen

  • De eerste fase: PT (Continue PreTraining) incrementele pre-training, waarbij het GPT-model tweemaal vooraf wordt getraind op enorme domeindocumentgegevens om domeinkennis te injecteren
  • De tweede fase: SFT (Supervised Fine-tuning) heeft toezicht gehouden op de fijnafstemming, construeert een dataset voor het afstemmen van instructies en voert de fijnafstemming van de instructies uit op basis van het pre-trainingsmodel om de instructie-intenties op elkaar af te stemmen
  • De derde fase: modellering van het RM-beloningsmodel (Reward Model), het construeren van een dataset voor het rangschikken van menselijke voorkeuren, het trainen van het beloningsmodel om menselijke voorkeuren op één lijn te brengen, voornamelijk het "HHH" -principe, met name "behulpzaam, eerlijk, onschadelijk"
  • De vierde fase: RL (Reinforcement Learning) is gebaseerd op Human Feedback Reinforcement Learning (RLHF), waarbij het beloningsmodel wordt gebruikt om het SFT-model te trainen, en het generatiemodel gebruikt beloningen of straffen om de strategie bij te werken om hogere kwaliteit te genereren, meer in lijn met menselijke voorkeuren
  • Wij bieden een eenvoudige, op Gradio gebaseerde interactieve webinterface
  • Nadat de training is voltooid, laden we nu het getrainde model om het effect van de modelgenererende tekst te verifiëren


Programmeertaal

Python


Categorieën

Grote taalmodellen (LLM)

Dit is een applicatie die ook kan worden opgehaald van https://sourceforge.net/projects/medicalgpt.mirror/. Het is gehost in OnWorks zodat het op de eenvoudigste manier online kan worden uitgevoerd vanaf een van onze gratis besturingssystemen.


Gratis servers en werkstations

Windows- en Linux-apps downloaden

Linux-commando's

Ad