Il s'agit de l'application Windows TensorStore, dont la dernière version est téléchargeable sous le nom tensorstorev0.1.78sourcecode.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée TensorStore avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN:
TensorStore
DESCRIPTION:
TensorStore est une bibliothèque hautes performances pour la lecture et l'écriture de tableaux N-dimensionnels hébergés sur différents systèmes de stockage, des fichiers locaux aux magasins d'objets cloud. Elle sépare la vue logique (forme, type de données, segmentation) de la structure physique, permettant ainsi au même code de cibler des pyramides Zarr, N5, TIFF ou des backends personnalisés. Ses opérations d'indexation, de découpage et de diffusion riches lui confèrent l'aspect d'une API de tableau familière, tandis que les pipelines d'E/S asynchrones diffusent efficacement les segments en parallèle. La sémantique transactionnelle permet des mises à jour atomiques et des instantanés cohérents, essentiels pour les grands ensembles de données partagés utilisés par le ML et les workflows scientifiques. La bibliothèque est conçue pour l'évolutivité : la mise en cache en arrière-plan, le sharding de segments et les opérations réessayables maintiennent un débit élevé, même sur des réseaux peu fiables. Grâce aux liaisons de langage, elle s'intègre aux pipelines d'analyse Python lourds tout en conservant un cœur C++ rapide.
Fonctionnement
- API de tableau uniforme sur de nombreux formats sur disque et dans le cloud
- E/S asynchrones, segmentées en parallèle avec mise en cache
- Lectures et écritures transactionnelles pour les mises à jour atomiques
- Indexation, découpage et conversions de type flexibles
- Pilotes enfichables pour Zarr, N5, TIFF et backends personnalisés
- Noyau C++ avec liaisons Python pour les flux de travail ML et scientifiques
Langage de programmation
C + +
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/tensorstore.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.