InglésFrancésEspañol

Ad


icono de página de OnWorks

Descarga web LLM para Windows

Descargue gratis la aplicación Web LLM para Windows para ejecutar win Wine en línea en Ubuntu en línea, Fedora en línea o Debian en línea

Esta es la aplicación de Windows denominada Web LLM cuya última versión se puede descargar como v0.2.0.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.

Descargue y ejecute en línea esta aplicación llamada Web LLM con OnWorks de forma gratuita.

Siga estas instrucciones para ejecutar esta aplicación:

- 1. Descargue esta aplicación en su PC.

- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 3. Cargue esta aplicación en dicho administrador de archivos.

- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.

- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.

- 6. Descarga la aplicación e instálala.

- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.

Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.

SCREENSHOTS

Ad


Máster en Derecho Web


DESCRIPCIÓN

WebLLM es un paquete de JavaScript modular y personalizable que lleva directamente los chats de modelos de lenguaje directamente a los navegadores web con aceleración de hardware. Todo se ejecuta dentro del navegador sin soporte de servidor y se acelera con WebGPU. Podemos brindar muchas oportunidades divertidas para crear asistentes de inteligencia artificial para todos y permitir la privacidad mientras disfrutamos de la aceleración de GPU. WebLLM ofrece una interfaz minimalista y modular para acceder al chatbot en el navegador. El paquete WebLLM en sí no viene con la interfaz de usuario y está diseñado de forma modular para conectarse a cualquiera de los componentes de la interfaz de usuario. El siguiente fragmento de código muestra un ejemplo simple que genera una respuesta de transmisión en una página web.



Caracteristicas

  • WebLLM viene con soporte API para WebWorker, por lo que puede conectar el proceso de generación a un subproceso de trabajo separado para que la computación en webworker no interrumpa la interfaz de usuario.
  • Puede encontrar un ejemplo completo de una aplicación de chat en ejemplos/simple-chat
  • WebLLM funciona como un proyecto complementario de MLC LLM
  • Reutiliza el artefacto del modelo y crea el flujo de MLC LLM
  • Cree el paquete WebLLM desde el código fuente
  • El paquete WebLLM es un tiempo de ejecución web diseñado para MLC LLM


Lenguaje de programación

Mecanografiado


Categorías

Modelos de lenguaje grande (LLM)

Esta es una aplicación que también se puede obtener de https://sourceforge.net/projects/web-llm.mirror/. Ha sido alojado en OnWorks para poder ejecutarlo online de la forma más sencilla desde uno de nuestros Sistemas Operativos gratuitos.


Servidores y estaciones de trabajo gratuitos

Descargar aplicaciones de Windows y Linux

Comandos de Linux

Ad