Il s'agit de l'application Windows OpenLIT, dont la dernière version est téléchargeable sous le nom py-1.33.23sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée OpenLIT avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
OpenLIT
DESCRIPTION
OpenLIT est un outil natif d'OpenTelemetry conçu pour aider les développeurs à mieux comprendre les performances de leurs applications LLM en production. Il collecte automatiquement les métadonnées d'entrée et de sortie des LLM et surveille les performances GPU des LLM auto-hébergés. OpenLIT simplifie l'intégration de l'observabilité aux projets GenAI, avec une seule ligne de code. Que vous travailliez avec des fournisseurs de LLM populaires tels qu'OpenAI et HuggingFace, ou que vous exploitiez des bases de données vectorielles comme ChromaDB, OpenLIT assure une surveillance transparente de vos applications, fournissant des informations essentielles, notamment des statistiques de performances GPU pour les LLM auto-hébergés, afin d'améliorer les performances et la fiabilité. Ce projet respecte les conventions sémantiques de la communauté OpenTelemetry et est constamment mis à jour pour s'aligner sur les dernières normes en matière d'observabilité.
Features
- Surveillance avancée des performances de LLM et VectorDB
- Suivi des coûts pour les modèles personnalisés et affinés
- Suivi des coûts pour les modèles personnalisés et affinés
- Documents disponibles
- SDK OpenTelemetry natifs et indépendants des fournisseurs
- Exemples disponibles
- OpenLIT vous permet de personnaliser le suivi des coûts pour des modèles spécifiques
- OpenLIT est construit avec un support natif pour OpenTelemetry
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/openlit.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.