TensorFlow Serving-Download für Linux

Dies ist die Linux-App namens TensorFlow Serving, deren neueste Version als 2.19.1sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.

 
 

Laden Sie diese App namens TensorFlow Serving with OnWorks kostenlos herunter und führen Sie sie online aus.

Befolgen Sie diese Anweisungen, um diese App auszuführen:

- 1. Diese Anwendung auf Ihren PC heruntergeladen.

- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.

- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.

- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.

- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.

- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.

SCREENSHOTS:


TensorFlow-Bereitstellung


BESCHREIBUNG:

TensorFlow Serving ist ein flexibles, leistungsstarkes Bereitstellungssystem für Modelle des maschinellen Lernens, das für Produktionsumgebungen entwickelt wurde. Es befasst sich mit dem Inferenzaspekt des maschinellen Lernens, indem Modelle nach dem Training genommen und ihre Lebensdauer verwaltet werden, wobei Kunden über eine leistungsstarke Nachschlagetabelle mit Referenzzählung versionierter Zugriff bereitgestellt wird. TensorFlow Serving bietet eine sofort einsatzbereite Integration mit TensorFlow-Modellen, kann jedoch problemlos erweitert werden, um andere Arten von Modellen und Daten bereitzustellen. Die einfachste und unkomplizierteste Möglichkeit, TensorFlow Serving zu verwenden, sind Docker-Images. Wir empfehlen diese Route dringend, es sei denn, Sie haben spezielle Anforderungen, die durch die Ausführung in einem Container nicht abgedeckt werden. Um ein Tensorflow-Modell bereitzustellen, exportieren Sie einfach ein SavedModel aus Ihrem Tensorflow-Programm. SavedModel ist ein sprachneutrales, wiederherstellbares, hermetisches Serialisierungsformat, das es übergeordneten Systemen und Tools ermöglicht, TensorFlow-Modelle zu erstellen, zu nutzen und zu transformieren.



Eigenschaften

  • Kann mehrere Modelle oder mehrere Versionen desselben Modells gleichzeitig bedienen
  • Macht sowohl gRPC- als auch HTTP-Inferenzendpunkte verfügbar
  • Ermöglicht die Bereitstellung neuer Modellversionen ohne Änderung des Clientcodes
  • Unterstützt Canarying neuer Versionen und A/B-Tests experimenteller Modelle
  • Fügt aufgrund der effizienten Implementierung mit geringem Overhead eine minimale Latenz zur Inferenzzeit hinzu
  • Verfügt über einen Planer, der einzelne Inferenzanfragen in Stapeln zur gemeinsamen Ausführung auf der GPU gruppiert, mit konfigurierbaren Latenzkontrollen


Programmiersprache

C + +


Kategorien

Maschinelles Lernen, LLM-Inferenz

Dies ist eine Anwendung, die auch von https://sourceforge.net/projects/tensorflow-serving.mirror/ abgerufen werden kann. Es wurde in OnWorks gehostet, um es auf einfachste Weise online über eines unserer kostenlosen Betriebssysteme ausführen zu können.



Neueste Linux- und Windows-Online-Programme


Kategorien zum Herunterladen von Software und Programmen für Windows und Linux