Esta es la aplicación para Linux Pruna AI, cuya última versión se puede descargar como v0.2.10sourcecode.tar.gz. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada Pruna AI con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie el emulador en línea OnWorks Linux o Windows en línea o el emulador en línea MACOS desde este sitio web.
- 5. Desde el SO OnWorks Linux que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación, instálala y ejecútala.
SCREENSHOTS
Ad
Pruna AI
DESCRIPCIÓN
Pruna es un motor de inferencia de IA de código abierto y autoalojable, diseñado para ayudar a los equipos a implementar y gestionar modelos de lenguaje grandes (LLM) de forma eficiente en infraestructuras privadas o híbridas. Diseñado pensando en el rendimiento y la ergonomía del desarrollador, Pruna simplifica los flujos de trabajo de inferencia al permitir la orquestación multimodelo, el escalado automático, la asignación de recursos de GPU y la compatibilidad con los modelos de código abierto más populares. Es ideal para empresas o equipos que buscan reducir la dependencia de API externas, manteniendo al mismo tiempo la velocidad, la rentabilidad y el control total sobre sus datos y su pila de IA. Centrado en la extensibilidad y la observabilidad, Pruna permite a los ingenieros escalar aplicaciones LLM desde el prototipo hasta la producción de forma segura y fiable.
Caracteristicas
- Motor autoalojado para gestionar la inferencia LLM
- Admite orquestación y enrutamiento de múltiples modelos
- Escalado automático dinámico para la optimización de recursos
- Programación y equilibrio de carga compatibles con GPU
- Compatible con modelos de código abierto como LLaMA y Mistral
- API HTTP y gRPC para una fácil integración
- Observabilidad y seguimiento del rendimiento integrados
- Listo para implementación con soporte para Docker y Kubernetes
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede descargar desde https://sourceforge.net/projects/pruna-ai.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.