InglésFrancésEspañol

Ad


icono de página de OnWorks

Descarga de LocalAI para Windows

Descargue gratis la aplicación LocalAI de Windows para ejecutar win Wine en línea en Ubuntu en línea, Fedora en línea o Debian en línea

Esta es la aplicación de Windows llamada LocalAI cuya última versión se puede descargar como v1.30.0.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.

Descargue y ejecute en línea esta aplicación llamada LocalAI con OnWorks de forma gratuita.

Siga estas instrucciones para ejecutar esta aplicación:

- 1. Descargue esta aplicación en su PC.

- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 3. Cargue esta aplicación en dicho administrador de archivos.

- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.

- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 6. Descarga la aplicación e instálala.

- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.

Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.

SCREENSHOTS

Ad


IA local


DESCRIPCIÓN

API local autohospedada, impulsada por la comunidad y compatible con OpenAI. Reemplazo directo para OpenAI que ejecuta LLM en hardware de consumo. Alternativa gratuita de código abierto OpenAI. No se requiere GPU. Ejecuta modelos compatibles con ggml, GPTQ, onnx y TF: llama, gpt4all, rwkv, Whisper, vicuna, koala, gpt4all-j, cerebras, falcon, dolly, starcoder y muchos otros. LocalAI es una API REST de reemplazo directo que es compatible con las especificaciones de la API OpenAI para inferencia local. Le permite ejecutar LLM (y no solo) localmente o en las instalaciones con hardware de consumo, admitiendo múltiples familias de modelos que son compatibles con el formato ggml. No requiere GPU.



Caracteristicas

  • API REST alternativa local de OpenAI
  • NO se requiere GPU
  • Soporta múltiples modelos
  • Una vez cargado por primera vez, mantiene los modelos cargados en la memoria para una inferencia más rápida.
  • No desembolsa, pero utiliza enlaces de C++ para una inferencia más rápida y un mejor rendimiento
  • Eres dueño de tus datos


Lenguaje de programación

Go


Categorías

Modelos de lenguaje grande (LLM)

Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/localai.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad