Este é o aplicativo para Windows chamado LLaMA-Factory, cuja versão mais recente pode ser baixada como v0.9.3_Llama4,Gemma3,Qwen3,InternVL3,Qwen2.5-Omnisourcecode.tar.gz. Ele pode ser executado online no provedor de hospedagem gratuita OnWorks para estações de trabalho.
Baixe e execute on-line este aplicativo chamado LLaMA-Factory com OnWorks gratuitamente.
Siga estas instruções para executar este aplicativo:
- 1. Baixe este aplicativo em seu PC.
- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.
- 3. Carregue este aplicativo em tal gerenciador de arquivos.
- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.
- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.
- 6. Baixe o aplicativo e instale-o.
- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.
Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.
SCREENSHOTS
Ad
Fábrica LLaMA
DESCRIÇÃO
LLaMA-Factory é uma estrutura de ajuste fino e treinamento para os modelos de linguagem LLaMA do Meta. Ela permite que pesquisadores e desenvolvedores treinem e personalizem modelos LLaMA de forma eficiente usando técnicas avançadas de otimização.
Recursos
- Suporta ajuste fino de modelos LLaMA para tarefas específicas
- Treinamento otimizado com LoRA e QLoRA para reduzir o uso de recursos
- Fornece scripts de treinamento pré-configurados para configuração mais rápida
- Suporte de treinamento distribuído e multi-GPU para escalabilidade
- Integra-se perfeitamente com os transformadores Hugging Face
- Compatível com precisão FP16 e BF16 para computação eficiente
Linguagem de Programação
Python
Categorias
Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llama-factory.mirror/. Ele foi hospedado no OnWorks para ser executado online da maneira mais fácil em um de nossos sistemas operacionais gratuitos.