GoGPT Best VPN GoSearch

Icône de favori OnWorks

Téléchargement de Tiny CUDA Neural Networks pour Linux

Téléchargez gratuitement l'application Linux Tiny CUDA Neural Networks pour l'exécuter en ligne dans Ubuntu en ligne, Fedora en ligne ou Debian en ligne

Il s'agit de l'application Linux Tiny CUDA Neural Networks, dont la dernière version est téléchargeable sous le nom de Version2.0sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.

Téléchargez et exécutez en ligne gratuitement cette application nommée Tiny CUDA Neural Networks avec OnWorks.

Suivez ces instructions pour exécuter cette application :

- 1. Téléchargé cette application sur votre PC.

- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.

- 3. Téléchargez cette application dans ce gestionnaire de fichiers.

- 4. Démarrez l'émulateur en ligne OnWorks Linux ou Windows en ligne ou l'émulateur en ligne MACOS à partir de ce site Web.

- 5. Depuis le système d'exploitation OnWorks Linux que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.

- 6. Téléchargez l'application, installez-la et exécutez-la.

CAPTURES D'ÉCRAN

Ad


Minuscules réseaux de neurones CUDA


DESCRIPTION

Il s'agit d'un petit cadre autonome pour la formation et l'interrogation des réseaux de neurones. Plus particulièrement, il contient un perceptron multicouche "entièrement fusionné" ultra-rapide (document technique), un codage de hachage multirésolution polyvalent (document technique), ainsi que la prise en charge de divers autres codages d'entrée, pertes et optimiseurs. Nous fournissons un exemple d'application où une fonction d'image (x,y) -> (R,G,B) est apprise. Le composant MLP entièrement fusionné de ce framework nécessite une très grande quantité de mémoire partagée dans sa configuration par défaut. Il ne fonctionnera probablement que sur un RTX 3090, un RTX 2080 Ti ou des GPU d'entreprise haut de gamme. Les cartes bas de gamme doivent réduire le paramètre n_neurons ou utiliser le CutlassMLP (meilleure compatibilité mais plus lent) à la place. tiny-cuda-nn est livré avec une extension PyTorch qui permet d'utiliser les MLP rapides et les encodages d'entrée à partir d'un contexte Python. Ces liaisons peuvent être nettement plus rapides que les implémentations Python complètes ; en particulier pour le codage de hachage multirésolution.



Comment ça marche

  • Les minuscules réseaux de neurones CUDA ont une simple API C++/CUDA
  • Apprendre une image 2D
  • Nécessite un GPU NVIDIA
  • Nécessite Windows : Visual Studio 2019
  • Nécessite Linux : GCC/G++ 7.5 ou supérieur
  • Nécessite CUDA v10.2 ou supérieur et CMake v3.21 ou supérieur.


Langage de programmation

C + +


Catégories

Cadres, apprentissage automatique, bibliothèques de réseaux neuronaux

Il s'agit d'une application qui peut également être récupérée sur https://sourceforge.net/projects/tiny-cuda-neural-netw.mirror/. Il a été hébergé dans OnWorks afin d'être exécuté en ligne de la manière la plus simple à partir de l'un de nos systèmes d'exploitation gratuits.


Serveurs et postes de travail gratuits

Télécharger des applications Windows et Linux

Commandes Linux

Ad




×
Publicité
❤ ️Achetez, réservez ou achetez ici — gratuitement, contribue à maintenir la gratuité des services.