InglêsFrancêsEspanhol

Ad


favicon do OnWorks

Download MedicalGPT para Linux

Baixe gratuitamente o aplicativo MedicalGPT Linux para rodar online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo Linux denominado MedicalGPT, cuja versão mais recente pode ser baixada como v1.6.0sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado MedicalGPT com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.

- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo, instale-o e execute-o.

SCREENSHOTS

Ad


MédicaGPT


DESCRIÇÃO

Modelo GPT médico de treinamento MedicalGPT com pipeline de treinamento ChatGPT, implementação de pré-treinamento, ajuste fino supervisionado, modelagem de recompensa e aprendizado por reforço. MedicalGPT treina grandes modelos médicos, incluindo pré-treinamento secundário, ajuste fino supervisionado, modelagem de recompensa e treinamento de aprendizagem por reforço.



Funcionalidades

  • A primeira etapa: pré-treinamento incremental PT (Continue PreTraining), pré-treinamento do modelo GPT duas vezes em dados massivos de documentos de domínio para injetar conhecimento de domínio
  • O segundo estágio: SFT (ajuste fino supervisionado) supervisionou o ajuste fino, construiu um conjunto de dados de ajuste fino de instrução e realizou o ajuste fino de instrução com base no modelo de pré-treinamento para alinhar as intenções de instrução
  • A terceira etapa: modelagem do modelo de recompensa RM (Modelo de Recompensa), construção de um conjunto de dados de classificação de preferência humana, treinamento do modelo de recompensa para alinhar as preferências humanas, principalmente o princípio "HHH", especificamente "útil, honesto, inofensivo"
  • A quarta etapa: RL (Aprendizagem por Reforço) é baseada na aprendizagem por reforço de feedback humano (RLHF), usando o modelo de recompensa para treinar o modelo SFT, e o modelo de geração usa recompensas ou penalidades para atualizar sua estratégia a fim de gerar maior qualidade, mais de acordo com as preferências humanas
  • Fornecemos uma interface web interativa simples baseada em Gradio
  • Após a conclusão do treinamento, agora carregamos o modelo treinado para verificar o efeito do modelo gerando texto


Linguagem de Programação

Python


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/medicalgpt.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad