Il s'agit de l'application Windows Ollama Python, dont la dernière version est téléchargeable sous le nom ollama-0.5.3.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée Ollama Python avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Python Ollama
DESCRIPTION
ollama-python est un SDK Python open source qui encapsule l'interface de ligne de commande (CLI) d'Ollama, permettant une interaction fluide avec les grands modèles de langage (LLM) locaux gérés par Ollama. Les développeurs l'utilisent pour charger des modèles, envoyer des invites, gérer des sessions et diffuser des réponses directement depuis le code Python. Il simplifie l'intégration des modèles basés sur Ollama dans les applications, prenant en charge les modes synchrone et streaming. Cet outil est idéal pour créer des applications pilotées par l'IA avec déploiement de modèles locaux.
Caractéristiques
- Charger et exécuter des modèles Ollama à partir de Python
- Prise en charge du formatage rapide et de la sortie en continu
- Lister et gérer les LLM installés
- Gestion des sessions et mémoire des conversations
- Gère les erreurs CLI et l'analyse des sorties
- Enveloppe de dépendance légère englobant la CLI existante
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/ollama-python.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.