AnglaisFrançaisEspagnol

Ad


Icône de favori OnWorks

Téléchargement Fairseq pour Linux

Téléchargez gratuitement l'application Fairseq Linux pour l'exécuter en ligne dans Ubuntu en ligne, Fedora en ligne ou Debian en ligne

Il s'agit de l'application Linux nommée Fairseq dont la dernière version peut être téléchargée en tant que v0.10.2.zip. Il peut être exécuté en ligne dans le fournisseur d'hébergement gratuit OnWorks pour les postes de travail.

Téléchargez et exécutez en ligne gratuitement cette application nommée Fairseq avec OnWorks.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN

Ad


Fairseq


DESCRIPTION

Fairseq(-py) est une boîte à outils de modélisation de séquence qui permet aux chercheurs et aux développeurs de former des modèles personnalisés pour la traduction, le résumé, la modélisation du langage et d'autres tâches de génération de texte. Nous fournissons des implémentations de référence de divers articles de modélisation de séquences. Des travaux récents de Microsoft et Google ont montré que la formation en parallèle des données peut être rendue beaucoup plus efficace en partageant les paramètres du modèle et l'état de l'optimiseur entre les travailleurs en parallèle des données. Ces idées sont encapsulées dans le nouveau wrapper FullyShardedDataParallel (FSDP) fourni par fairscale. Fairseq peut être étendu grâce à des plug-ins fournis par l'utilisateur. Les modèles définissent l'architecture du réseau neuronal et encapsulent tous les paramètres apprenables. Les critères calculent la fonction de perte en fonction des sorties et des cibles du modèle. Les tâches stockent des dictionnaires et fournissent des aides pour charger/itérer sur des ensembles de données, initialiser le modèle/critère et calculer la perte.



Fonctionnalités:

  • Formation multi-GPU sur une machine ou sur plusieurs machines (données et modèles parallèles)
  • Génération rapide sur CPU et GPU avec plusieurs algorithmes de recherche mis en œuvre
  • L'accumulation de gradient permet de s'entraîner avec de grands mini-lots, même sur un seul GPU
  • Entraînement de précision mixte (s'entraîne plus rapidement avec moins de mémoire GPU sur les cœurs de tenseur NVIDIA)
  • Enregistrez facilement de nouveaux modèles, critères, tâches, optimiseurs et planificateurs de taux d'apprentissage
  • Configuration flexible basée sur Hydra permettant une combinaison de code, de ligne de commande et de configuration basée sur des fichiers


Langage de programmation

Python


Catégories

Modélisation, Intelligence Artificielle, Recherche

Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/fairseq.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad