Esta es la aplicación para Linux llamada LLaMA, cuya última versión se puede descargar como llamav2sourcecode.zip. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada LLaMA con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
Llama
DESCRIPCIÓN
“Llama” es el repositorio de Meta (anteriormente Facebook/Meta Research) que contiene el código de inferencia para los modelos LLaMA (Large Language Model Meta AI). Ofrece utilidades para cargar pesos de modelos LLaMA preentrenados, ejecutar inferencias (generación de texto, chat, compleciones) y trabajar con tokenizadores. Este repositorio es un componente fundamental de la infraestructura del modelo Llama, utilizado por investigadores y desarrolladores para ejecutar modelos LLaMA localmente o en su infraestructura. Está diseñado para la inferencia (no para el entrenamiento desde cero) y se conecta con aspectos como las tarjetas de modelo, el uso responsable, las licencias, etc.
Caracteristicas
- Proporciona un código de referencia para cargar varios pesos preentrenados de LLaMA (7B, 13B, 70B, etc.) y realizar inferencias (chat o finalización).
- Utilidades de tokenizador, scripts de descarga, ayudantes de shell para obtener pesos de modelos con licencias y permisos correctos
- Soporte para configuraciones de múltiples parámetros (tamaño de lote, longitud del contexto, número de GPU/paralelismo) para escalar a modelos/máquinas más grandes
- Guía de licencia/uso responsable; una tarjeta modelo y documentación sobre cómo se puede usar o restringir el modelo
- Incluye scripts de ejemplo para completar chats y textos para mostrar cómo llamar a los modelos en el código.
- Compatibilidad con marcos de aprendizaje profundo estándar (PyTorch, etc.) para uso de inferencia, incluida la garantía de que se incluyan las dependencias y los scripts de configuración necesarios.
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/llama.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.