Il s'agit de l'application Linux MobileLLM, dont la dernière version est téléchargeable sous le nom MobileLLMsourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée MobileLLM avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN:
MobileLLM
DESCRIPTION:
MobileLLM est un framework léger de modèles de langage à grande échelle (LLM) développé par Facebook Research, optimisé pour un déploiement sur appareil où l'efficacité de calcul et de mémoire est essentielle. Présenté dans l'article ICML 2024 « MobileLLM : Optimisation des modèles de langage à sous-milliards de paramètres pour les cas d'utilisation sur appareil », il vise à fournir de solides capacités de raisonnement et de généralisation dans les modèles de moins d'un milliard de paramètres. Ce framework intègre plusieurs innovations architecturales : activation SwiGLU, conception de réseaux profonds et fins, partage d'intégration et attention aux requêtes groupées (GQA) ; il permet ainsi d'obtenir un meilleur compromis entre taille du modèle, vitesse d'inférence et précision. MobileLLM affiche des performances remarquables : les variantes 125 M et 350 M surpassent les modèles de pointe précédents de même échelle jusqu'à 4.3 % sur les tâches de raisonnement de bon sens à zéro coup.
Comment ça marche
- Architecture de transformateur optimisée pour les LLM à paramètres inférieurs à un milliard
- Combine l'activation SwiGLU, le partage d'intégration et l'attention des requêtes groupées
- Prend en charge la préformation multi-nœuds distribuée avec PyTorch ≥ 2.0
- Fournit des résultats de raisonnement à la pointe de la technologie sur plusieurs tâches
- Inclut des pipelines de formation et d'évaluation reproductibles pour plusieurs tailles de modèles
- Philosophie de conception évolutive s'étendant de 125 millions à 1.5 milliard de paramètres
Langage de programmation
Python, shell Unix
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/mobilellm.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.