Esta es la aplicación para Linux llamada gpt-oss, cuya última versión se puede descargar como gpt-oss-main.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada gpt-oss con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
gpt-oss
Ad
DESCRIPCIÓN
gpt-oss es la familia de modelos de lenguaje de gran tamaño y peso abierto de OpenAI, diseñada para razonamiento potente, flujos de trabajo con agentes y casos de uso versátiles para desarrolladores. La serie incluye dos modelos principales: gpt-oss-120b, un modelo de 117 mil millones de parámetros optimizado para tareas de propósito general y alto razonamiento, que puede ejecutarse en una sola GPU H100, y gpt-oss-20b, un modelo más ligero de 21 mil millones de parámetros, ideal para aplicaciones de baja latencia o especializadas en hardware más pequeño. Ambos modelos utilizan una cuantificación nativa MXFP4 para un uso eficiente de la memoria y son compatibles con el formato de respuesta Harmony de OpenAI, lo que permite un razonamiento transparente y completo en cadena de pensamiento e integraciones de herramientas avanzadas como la llamada a funciones, la navegación y la ejecución de código Python. El repositorio proporciona múltiples implementaciones de referencia, incluyendo PyTorch, Triton y Metal, para uso educativo y experimental, así como clientes de ejemplo y herramientas como una aplicación de chat de terminal y un servidor de API de respuestas.
Caracteristicas
- Dos tamaños de modelo: gpt-oss-120b (parámetros de 117 B) y gpt-oss-20b (parámetros de 21 B)
- Cuantificación nativa MXFP4 para capas MoE que permite una inferencia eficiente
- Admite razonamiento de cadena de pensamiento completo con niveles de esfuerzo configurables (bajo, medio, alto)
- Formato de respuesta de armonía para una salida de modelo estandarizada y depurable
- Capacidades de herramientas de agente integradas: llamada de funciones, navegación web, ejecución de código Python, salidas estructuradas
- Múltiples backends de inferencia: PyTorch, Triton (optimizado), Metal (Apple Silicon)
- Herramientas y clientes de referencia: aplicación de chat de terminal, servidor de ejemplo de API de respuestas
- Con licencia Apache 2.0 permisiva para experimentación, personalización e implementación comercial
Lenguaje de programación
Python, C ++, C
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/gpt-oss/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.