Dies ist die Windows-App namens TensorStore, deren neueste Version als tensorstorev0.1.78sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens TensorStore mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
TensorStore
BESCHREIBUNG:
TensorStore ist eine leistungsstarke Bibliothek zum Lesen und Schreiben n-dimensionaler Arrays, die in vielen verschiedenen Speichersystemen – von lokalen Dateien bis hin zu Cloud-Objektspeichern – vorliegen. Sie trennt die logische Ansicht (Form, Datentyp, Chunking) vom physischen Layout, sodass derselbe Code auf Zarr, N5, TIFF-Pyramiden oder benutzerdefinierte Backends abzielen kann. Umfangreiche Indizierungs-, Slicing- und Broadcasting-Operationen vermitteln den Eindruck einer vertrauten Array-API, während asynchrone I/O-Pipelines Chunks effizient parallel streamen. Transaktionale Semantik ermöglicht atomare Updates und konsistente Snapshots, was für große, gemeinsam genutzte Datensätze, die von ML und wissenschaftlichen Workflows verwendet werden, unerlässlich ist. Die Bibliothek ist auf Skalierbarkeit ausgelegt – Hintergrund-Caching, Chunk-Sharding und wiederholbare Operationen sorgen selbst in unzuverlässigen Netzwerken für einen hohen Durchsatz. Dank Sprachbindungen passt sie in Python-lastige Analyse-Pipelines und behält gleichzeitig einen schnellen C++-Kern.
Eigenschaften
- Einheitliche Array-API für viele Festplatten- und Cloud-Formate
- Asynchroner, paralleler Chunked-I/O mit Caching
- Transaktionale Lese- und Schreibvorgänge für atomare Updates
- Flexible Indizierung, Aufteilung und DType-Konvertierungen
- Pluggable-Treiber für Zarr, N5, TIFF und benutzerdefinierte Backends
- C++-Kern mit Python-Bindungen für ML- und Wissenschafts-Workflows
Programmiersprache
C + +
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/tensorstore.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.