InglêsFrancêsEspanhol

Ad


favicon do OnWorks

baixar llm para Windows

Baixe gratuitamente o aplicativo llm do Windows para executar o Win Wine on-line no Ubuntu on-line, Fedora on-line ou Debian on-line

Este é o aplicativo do Windows chamado llm, cuja versão mais recente pode ser baixada como llm-cli-x86_64-pc-windows-msvc.zip. Ele pode ser executado online no provedor de hospedagem gratuito OnWorks para estações de trabalho.

Baixe e execute online este aplicativo chamado llm com OnWorks gratuitamente.

Siga estas instruções para executar este aplicativo:

- 1. Baixe este aplicativo em seu PC.

- 2. Entre em nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que você deseja.

- 3. Carregue este aplicativo em tal gerenciador de arquivos.

- 4. Inicie qualquer emulador on-line OS OnWorks a partir deste site, mas um emulador on-line melhor do Windows.

- 5. No sistema operacional OnWorks Windows que você acabou de iniciar, acesse nosso gerenciador de arquivos https://www.onworks.net/myfiles.php?username=XXXXX com o nome de usuário que deseja.

- 6. Baixe o aplicativo e instale-o.

- 7. Baixe o Wine de seus repositórios de software de distribuição Linux. Depois de instalado, você pode clicar duas vezes no aplicativo para executá-lo com o Wine. Você também pode experimentar o PlayOnLinux, uma interface sofisticada do Wine que o ajudará a instalar programas e jogos populares do Windows.

Wine é uma forma de executar software Windows no Linux, mas sem a necessidade de Windows. Wine é uma camada de compatibilidade do Windows de código aberto que pode executar programas do Windows diretamente em qualquer desktop Linux. Essencialmente, o Wine está tentando reimplementar o suficiente do Windows do zero para que possa executar todos os aplicativos do Windows sem realmente precisar do Windows.

SCREENSHOTS

Ad


Ilm


DESCRIÇÃO

llm é um ecossistema de bibliotecas Rust para trabalhar com grandes modelos de linguagem - é construído sobre a biblioteca GGML rápida e eficiente para aprendizado de máquina. O principal ponto de entrada para desenvolvedores é o llm crate, que envolve o llm-base e os engradados do modelo suportado. A documentação da versão lançada está disponível em Docs.rs. Para usuários finais, existe um aplicativo CLI, llm-cli, que fornece uma interface conveniente para interagir com modelos suportados. A geração de texto pode ser feita de forma única com base em um prompt ou de forma interativa, por meio de REPL ou modos de chat. A CLI também pode ser usada para serializar (imprimir) modelos decodificados, quantizar arquivos GGML ou calcular a perplexidade de um modelo. Ele pode ser baixado da versão mais recente do GitHub ou instalado em crates.io.



Funcionalidades

  • llm é desenvolvido com a biblioteca tensor ggml e tem como objetivo trazer a robustez e a facilidade de uso do Rust para o mundo dos grandes modelos de linguagem
  • Este projeto depende do Rust v1.65.0 ou superior e de um conjunto de ferramentas C moderno
  • A biblioteca llm foi projetada para aproveitar aceleradores de hardware como cuda e metal para desempenho otimizado
  • Para permitir que o llm aproveite esses aceleradores, algumas etapas preliminares de configuração são necessárias
  • A maneira mais fácil de começar a usar o llm-cli é baixar um executável pré-construído de uma versão lançada do llm
  • Por padrão, o llm é compilado com suporte para buscar remotamente o tokenizer do hub de modelo do Hugging Face


Linguagem de Programação

Ferrugem


Categorias

Modelos de Grandes Linguagens (LLM)

Este é um aplicativo que também pode ser obtido em https://sourceforge.net/projects/llm.mirror/. Foi hospedado em OnWorks para poder ser executado online da maneira mais fácil a partir de um de nossos Sistemas Operativos gratuitos.


Servidores e estações de trabalho gratuitos

Baixar aplicativos Windows e Linux

Comandos Linux

Ad