Il s'agit de l'application Windows Transformer Engine, dont la dernière version est téléchargeable sous le nom v2.4sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée Transformer Engine avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN
Ad
Moteur de transformateur
DESCRIPTION
Transformer Engine (TE) est une bibliothèque permettant d'accélérer les modèles Transformer sur les GPU NVIDIA, notamment en utilisant la précision 8 bits à virgule flottante (FP8) sur les GPU Hopper, afin d'offrir de meilleures performances avec une utilisation mémoire réduite, tant pour l'apprentissage que pour l'inférence. TE fournit un ensemble de blocs de construction hautement optimisés pour les architectures Transformer les plus courantes, ainsi qu'une API automatique de type précision mixte, utilisable de manière transparente avec votre code spécifique au framework. TE inclut également une API C++ indépendante du framework, intégrable à d'autres bibliothèques de deep learning pour permettre la prise en charge de FP8 pour Transformers. Avec l'augmentation constante du nombre de paramètres dans les modèles Transformer, l'apprentissage et l'inférence pour des architectures telles que BERT, GPT et T5 deviennent très gourmands en mémoire et en calcul. La plupart des frameworks de deep learning s'entraînent par défaut avec FP32. Cependant, cela n'est pas indispensable pour atteindre une précision optimale pour de nombreux modèles de deep learning.
Features
- Modules faciles à utiliser pour créer des couches Transformer avec prise en charge FP8
- Optimisations (par exemple, noyaux fusionnés) pour les modèles Transformer
- Prise en charge de FP8 sur les GPU NVIDIA Hopper et NVIDIA Ada
- Prise en charge des optimisations sur toutes les précisions (FP16, BF16) sur les générations d'architecture GPU NVIDIA Ampere et ultérieures
- Documents disponibles
- Exemples inclus
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/transformer-engine.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.