Esta es la aplicación para Linux llamada llama2.c, cuya última versión se puede descargar como llama2.csourcecode.tar.gz. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada llama2.c con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
CAPTURAS DE PANTALLA:
llama2.c
DESCRIPCIÓN:
llama2.c es una implementación minimalista de la arquitectura del modelo de lenguaje Llama 2, diseñada para ejecutarse completamente en C puro. Creado por Andrej Karpathy, este proyecto ofrece un marco educativo y ligero para realizar inferencias en pequeños modelos de Llama 2 sin dependencias externas. Proporciona un flujo de trabajo completo de entrenamiento e inferencia: los modelos pueden entrenarse en PyTorch y luego ejecutarse utilizando un programa conciso en C de 700 líneas (run.c). Si bien técnicamente puede cargar los modelos oficiales de Llama 2 de Meta, su compatibilidad actual está limitada a la precisión fp32, lo que significa que su uso práctico está limitado a modelos de hasta aproximadamente 7 mil millones de parámetros. El objetivo de llama2.c es demostrar cómo una implementación compacta y transparente puede realizar inferencias significativas incluso con modelos pequeños, priorizando la simplicidad, la claridad y la accesibilidad. El proyecto se basa en las lecciones de nanoGPT y se inspira en llama.cpp, centrándose en el minimalismo y el valor educativo por encima del rendimiento a gran escala.
Caracteristicas
- Implementa la arquitectura completa de Llama 2 tanto para entrenamiento como para inferencia.
- Proporciona un motor de inferencia compacto basado en C de 700 líneas (run.c)
- Permite entrenar en PyTorch y ejecutar modelos directamente en C
- Admite la precisión del modelo fp32 para LLM más pequeños y de escala educativa
- Ofrece una implementación limpia y libre de dependencias para facilitar el estudio y la modificación.
- Inspirado en llama.cpp pero diseñado para la simplicidad y el minimalismo.
Lenguaje de programación
c, pitón
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/llama2-c.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.