Il s'agit de l'application Linux frugally-deep, dont la dernière version est téléchargeable sous le nom v0.18.2sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne gratuitement cette application nommée frugally-deep avec OnWorks.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.
- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application, installez-la et exécutez-la.
CAPTURES D'ÉCRAN
Ad
frugalement profond
DESCRIPTION
Utilisez facilement les modèles Keras en C++. Une bibliothèque légère, uniquement dédiée aux en-têtes, pour utiliser les modèles Keras (TensorFlow) en C++. Fonctionne immédiatement même une fois compilée en exécutable 32 bits. (Bien sûr, 64 bits conviennent également.) Évite l'allocation temporaire (potentiellement importante) de RAM supplémentaire lors des convolutions (en ne matérialisant pas la matrice d'entrée im2col). Ignore complètement même le GPU le plus puissant de votre système et n'utilise qu'un seul cœur de processeur par prédiction. Assez rapide sur un seul cœur de processeur, vous pouvez exécuter plusieurs prédictions en parallèle, utilisant ainsi autant de processeurs que vous le souhaitez pour améliorer le débit global de prédiction de votre application/pipeline.
Features
- Il s'agit d'une petite bibliothèque d'en-tête uniquement écrite en C++ moderne et pur
- Très facile à intégrer et à utiliser
- Dépend uniquement de FunctionalPlus, Eigen et json - également des bibliothèques d'en-tête uniquement
- Prend en charge l'inférence (model.predict) non seulement pour les modèles séquentiels mais également pour les graphiques de calcul avec une topologie plus complexe, créés avec l'API fonctionnelle
- Réimplémente un (petit) sous-ensemble de TensorFlow, c'est-à-dire les opérations nécessaires pour prendre en charge la prédiction
- Résultats dans une taille binaire beaucoup plus petite que la liaison avec TensorFlow
Langage de programmation
C + +
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/frugally-deep.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.