Il s'agit de l'application Linux nommée OpenLLM dont la dernière version peut être téléchargée sous le nom v0.3.9sourcecode.zip. Il peut être exécuté en ligne chez le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.
Téléchargez et exécutez gratuitement en ligne cette application nommée OpenLLM avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
OuvrirLLM
DESCRIPTION
Une plate-forme ouverte pour exploiter des modèles de langage étendus (LLM) en production. Ajustez, servez, déployez et surveillez facilement n’importe quel LLM. Avec OpenLLM, vous pouvez exécuter l'inférence avec n'importe quel modèle open source en grand langage, déployer sur le cloud ou sur site et créer de puissantes applications d'IA. L'intégration prend en charge une large gamme de LLM et d'exécution de modèles open source, notamment Llama 2, StableLM, Falcon, Dolly, Flan-T5, ChatGLM, StarCoder, etc. Servez des LLM via l'API RESTful ou gRPC avec une seule commande, une requête via WebUI, CLI, notre client Python/Javascript ou n'importe quel client HTTP.
Fonctionnalités:
- Ajustez, servez, déployez et surveillez facilement n'importe quel LLM
- LLM de pointe
- API flexibles
- Liberté de construire
- Rationaliser le déploiement
- Apportez votre propre LLM
Langage de programmation
Python
Catégories
Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/openllm.mirror/. Il a été hébergé dans OnWorks afin de pouvoir être exécuté en ligne de la manière la plus simple possible à partir de l'un de nos systèmes d'exploitation gratuits.