Este é o aplicativo Linux chamado LLM Foundry, cuja versão mais recente pode ser baixada como v0.22.0sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado LLM Foundry com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
SCREENSHOTS
Ad
Fundição LLM
DESCRIÇÃO
Apresentando o MPT-7B, a primeira entrada em nossa série MosaicML Foundation. MPT-7B é um transformador treinado do zero em tokens de texto e código de 1T. É de código aberto, disponível para uso comercial e corresponde à qualidade do LLaMA-7B. O MPT-7B foi treinado na plataforma MosaicML em 9.5 dias sem intervenção humana a um custo de aproximadamente US$ 200 mil. Os grandes modelos de linguagem (LLMs) estão mudando o mundo, mas para aqueles que estão fora dos laboratórios industriais com bons recursos, pode ser extremamente difícil treinar e implantar esses modelos. Isso levou a uma enxurrada de atividades centradas em LLMs de código aberto, como a série LLaMA da Meta, a série Pythia da EleutherAI, a série StableLM da StabilityAI e o modelo OpenLLaMA da Berkeley AI Research.
Recursos
- Licenciado para uso comercial (ao contrário do LLaMA)
- Treinado em uma grande quantidade de dados (tokens de 1T como LLaMA vs. 300B para Pythia, 300B para OpenLLaMA e 800B para StableLM)
- Preparado para lidar com entradas extremamente longas graças ao ALiBi (treinamos em até 65k entradas e podemos lidar com até 84k vs. 2k-4k para outros modelos de código aberto)
- Otimizado para treinamento e inferência rápida (via FlashAttention e FasterTransformer)
- Equipado com código de treinamento de código aberto altamente eficiente
- MPT-7B Base é um transformador estilo decodificador com parâmetros de 6.7B
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm-foundry.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.