Este é o aplicativo para Windows chamado Text Generation Inference, cuja versão mais recente pode ser baixada como v3.3.2sourcecode.zip. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute on-line este aplicativo chamado Text Generation Inference with OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
CAPTURAS DE TELA:
Inferência de geração de texto
DESCRIÇÃO:
O Text Generation Inference é um servidor de inferência de alto desempenho para modelos de geração de texto, otimizado para os Transformers da Hugging Face. Ele foi projetado para atender a grandes modelos de linguagem de forma eficiente, com otimizações de desempenho e escalabilidade.
Recursos
- Otimizado para atender grandes modelos de linguagem (LLMs)
- Suporta processamento em lote e paralelismo para alto rendimento
- Suporte de quantização para melhor desempenho
- Implantação baseada em API para fácil integração
- Aceleração de GPU e dimensionamento de vários nós
- Transmissão de token integrada para respostas em tempo real
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/text-generation-infer.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.