Este é o aplicativo para Windows chamado Transformers.jl, cuja versão mais recente pode ser baixada como v0.3.1sourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado Transformers.jl com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
Transformadores.jl
DESCRIÇÃO
Transformers.jl é uma biblioteca Julia que implementa modelos Transformer para tarefas de processamento de linguagem natural. Inspirada em arquiteturas como BERT, GPT e T5, a biblioteca oferece uma interface modular e flexível para construir, treinar e usar modelos de aprendizado profundo baseados em transformadores. Ela suporta treinamento do zero e ajuste fino de modelos pré-treinados, e integra-se ao Flux.jl para diferenciação e otimização automáticas.
Recursos
- Implementa arquiteturas padrão do Transformer (BERT, GPT, etc.)
- Design modular para configuração de modelo personalizado
- Capacidades de pré-treinamento e ajuste fino
- Suporte para tokenização e codificação posicional
- Compatível com Flux.jl e diferenciação automática
- Suporte para aceleração de GPU via CUDA.jl
Linguagem de Programação
Julia
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/transformers-jl.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.