Il s'agit de l'application Windows Pruna AI, dont la dernière version est téléchargeable sous le nom v0.2.5sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée Pruna AI avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN:
Pruna AI
DESCRIPTION:
Pruna est un moteur d'inférence d'IA open source et auto-hébergé, conçu pour aider les équipes à déployer et gérer efficacement de grands modèles de langage (LLM) sur des infrastructures privées ou hybrides. Conçu pour optimiser les performances et l'ergonomie des développeurs, Pruna simplifie les workflows d'inférence en permettant l'orchestration multi-modèles, la mise à l'échelle automatique, l'allocation des ressources GPU et la compatibilité avec les modèles open source les plus répandus. Il est idéal pour les entreprises ou les équipes souhaitant réduire leur dépendance aux API externes tout en maintenant la rapidité, la rentabilité et le contrôle total de leurs données et de leur pile d'IA. Axé sur l'extensibilité et l'observabilité, Pruna permet aux ingénieurs de faire évoluer les applications LLM du prototype à la production de manière sûre et fiable.
Features
- Moteur auto-hébergé pour la gestion de l'inférence LLM
- Prend en charge l'orchestration et le routage multi-modèles
- Mise à l'échelle automatique dynamique pour l'optimisation des ressources
- Planification et équilibrage de charge prenant en charge le GPU
- Compatible avec les modèles open source comme LLaMA et Mistral
- API HTTP et gRPC pour une intégration facile
- Observabilité intégrée et suivi des performances
- Prêt pour le déploiement avec prise en charge de Docker et Kubernetes
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/pruna-ai.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.