Este é o aplicativo para Windows chamado LLM Foundry, cuja versão mais recente pode ser baixada como v0.21.0sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado LLM Foundry com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
Fundição LLM
DESCRIÇÃO
Apresentando o MPT-7B, a primeira entrada em nossa série MosaicML Foundation. MPT-7B é um transformador treinado do zero em tokens de texto e código de 1T. É de código aberto, disponível para uso comercial e corresponde à qualidade do LLaMA-7B. O MPT-7B foi treinado na plataforma MosaicML em 9.5 dias sem intervenção humana a um custo de aproximadamente US$ 200 mil. Os grandes modelos de linguagem (LLMs) estão mudando o mundo, mas para aqueles que estão fora dos laboratórios industriais com bons recursos, pode ser extremamente difícil treinar e implantar esses modelos. Isso levou a uma enxurrada de atividades centradas em LLMs de código aberto, como a série LLaMA da Meta, a série Pythia da EleutherAI, a série StableLM da StabilityAI e o modelo OpenLLaMA da Berkeley AI Research.
Recursos
- Licenciado para uso comercial (ao contrário do LLaMA)
- Treinado em uma grande quantidade de dados (tokens de 1T como LLaMA vs. 300B para Pythia, 300B para OpenLLaMA e 800B para StableLM)
- Preparado para lidar com entradas extremamente longas graças ao ALiBi (treinamos em até 65k entradas e podemos lidar com até 84k vs. 2k-4k para outros modelos de código aberto)
- Otimizado para treinamento e inferência rápida (via FlashAttention e FasterTransformer)
- Equipado com código de treinamento de código aberto altamente eficiente
- MPT-7B Base é um transformador estilo decodificador com parâmetros de 6.7B
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm-foundry.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.