Amazon Best VPN GoSearch

favicon do OnWorks

Download do LLM Foundry para Linux

Baixe gratuitamente o aplicativo LLM Foundry Linux para rodar online no Ubuntu online, Fedora online ou Debian online

Este é o aplicativo Linux chamado LLM Foundry, cuja versão mais recente pode ser baixada como v0.22.0sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado LLM Foundry com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.

- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo, instale-o e execute-o.

SCREENSHOTS

Ad


Fundição LLM


DESCRIÇÃO

Apresentando o MPT-7B, a primeira entrada em nossa série MosaicML Foundation. MPT-7B é um transformador treinado do zero em tokens de texto e código de 1T. É de código aberto, disponível para uso comercial e corresponde à qualidade do LLaMA-7B. O MPT-7B foi treinado na plataforma MosaicML em 9.5 dias sem intervenção humana a um custo de aproximadamente US$ 200 mil. Os grandes modelos de linguagem (LLMs) estão mudando o mundo, mas para aqueles que estão fora dos laboratórios industriais com bons recursos, pode ser extremamente difícil treinar e implantar esses modelos. Isso levou a uma enxurrada de atividades centradas em LLMs de código aberto, como a série LLaMA da Meta, a série Pythia da EleutherAI, a série StableLM da StabilityAI e o modelo OpenLLaMA da Berkeley AI Research.



Recursos

  • Licenciado para uso comercial (ao contrário do LLaMA)
  • Treinado em uma grande quantidade de dados (tokens de 1T como LLaMA vs. 300B para Pythia, 300B para OpenLLaMA e 800B para StableLM)
  • Preparado para lidar com entradas extremamente longas graças ao ALiBi (treinamos em até 65k entradas e podemos lidar com até 84k vs. 2k-4k para outros modelos de código aberto)
  • Otimizado para treinamento e inferência rápida (via FlashAttention e FasterTransformer)
  • Equipado com código de treinamento de código aberto altamente eficiente
  • MPT-7B Base é um transformador estilo decodificador com parâmetros de 6.7B


Linguagem de Programação

Python


Categorias

Grandes Modelos de Linguagem (LLM), Inferência LLM

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm-foundry.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad




×
Anúncios
❤ ️Compre, reserve ou compre aqui — sem custos, ajuda a manter os serviços gratuitos.