Este é o aplicativo Linux chamado UnsupervisedMT, cuja versão mais recente pode ser baixada como UnsupervisedMTsourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute online este aplicativo chamado UnsupervisedMT com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie o emulador OnWorks Linux online ou Windows online ou emulador MACOS online a partir deste site.
- 5. No sistema operacional OnWorks Linux que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo, instale-o e execute-o.
CAPTURAS DE TELA:
MT não supervisionado
DESCRIÇÃO:
Tradução Automática Não Supervisionada é um repositório de pesquisa que implementa abordagens de SMT baseada em frases e MT neural para tradução sem corpora paralelos. O componente neural suporta múltiplas arquiteturas — seq2seq, biLSTM com atenção e Transformer — e permite amplo compartilhamento de parâmetros entre idiomas para melhorar a eficiência dos dados. O treinamento depende da autocodificação e retrotradução com eliminação de ruído, com geração multithread de dados sintéticos paralelos em tempo real para atualizar continuamente os sinais de supervisão. O projeto também fornece scripts para buscar e pré-processar dados monolíngues, aprender códigos BPE e treinar embeddings multilíngues que inicializam o alinhamento não supervisionado entre idiomas. Além da configuração básica do EMNLP 2018, a base de código expõe recursos adicionais e opcionais, como treinamento multilíngue, pré-treinamento de modelos de linguagem com parâmetros compartilhados e treinamento adversarial.
Recursos
- MT neural com arquiteturas seq2seq, biLSTM+atenção e Transformer
- Compartilhamento de parâmetros entre codificadores/decodificadores e incorporações para vários idiomas
- Treinamento de autocodificador de redução de ruído e retrotradução com geração instantânea
- Utilitários para baixar, tokenizar, BPE e binarizar grandes corpora monolíngues
- Incorporações multilíngues via fastText ou métodos de alinhamento para inicializar modelos
- Pipeline PBSMT não supervisionado com treinamento e avaliação automatizados de Moses
Linguagem de Programação
Python, Shell Unix
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/unsupervisedmt.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.