Esta es la aplicación para Windows llamada Ollama Python, cuya última versión se puede descargar como ollama-0.5.3.tar.gz. Se puede ejecutar en línea en el proveedor de alojamiento gratuito OnWorks para estaciones de trabajo.
Descargue y ejecute en línea esta aplicación llamada Ollama Python con OnWorks de forma gratuita.
Siga estas instrucciones para ejecutar esta aplicación:
- 1. Descargue esta aplicación en su PC.
- 2. Ingrese en nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 3. Cargue esta aplicación en dicho administrador de archivos.
- 4. Inicie cualquier emulador en línea de OS OnWorks desde este sitio web, pero mejor emulador en línea de Windows.
- 5. Desde el sistema operativo OnWorks Windows que acaba de iniciar, vaya a nuestro administrador de archivos https://www.onworks.net/myfiles.php?username=XXXXX con el nombre de usuario que desee.
- 6. Descarga la aplicación e instálala.
- 7. Descargue Wine desde los repositorios de software de sus distribuciones de Linux. Una vez instalada, puede hacer doble clic en la aplicación para ejecutarla con Wine. También puedes probar PlayOnLinux, una elegante interfaz sobre Wine que te ayudará a instalar programas y juegos populares de Windows.
Wine es una forma de ejecutar software de Windows en Linux, pero no requiere Windows. Wine es una capa de compatibilidad de Windows de código abierto que puede ejecutar programas de Windows directamente en cualquier escritorio de Linux. Esencialmente, Wine está tratando de volver a implementar una cantidad suficiente de Windows desde cero para poder ejecutar todas esas aplicaciones de Windows sin necesidad de Windows.
SCREENSHOTS
Ad
Ollama Python
DESCRIPCIÓN
ollama-python es un SDK de Python de código abierto que integra la CLI de Ollama, lo que permite una interacción fluida con los grandes modelos de lenguaje (LLM) locales gestionados por Ollama. Los desarrolladores lo utilizan para cargar modelos, enviar solicitudes, gestionar sesiones y transmitir respuestas directamente desde el código Python. Simplifica la integración de modelos basados en Ollama en aplicaciones, al ser compatible con los modos síncrono y de transmisión. Esta herramienta es ideal para quienes desarrollan aplicaciones basadas en IA con implementación de modelos locales.
Caracteristicas
- Cargar y ejecutar modelos de Ollama desde Python
- Soporte para formato de indicaciones y salida de streaming
- Enumerar y administrar los LLM instalados
- Manejo de sesiones y memoria de conversaciones
- Maneja errores de CLI y análisis de salida.
- Envoltura de dependencias ligera de la CLI existente
Lenguaje de programación
Python
Categorías
Esta aplicación también se puede obtener desde https://sourceforge.net/projects/ollama-python.mirror/. Está alojada en OnWorks para facilitar su ejecución en línea desde uno de nuestros sistemas operativos gratuitos.