Questa è l'app Linux denominata TensorFlow Serving la cui ultima versione può essere scaricata come 2.13.1.zip. Può essere eseguito online nel provider di hosting gratuito OnWorks per workstation.
Scarica ed esegui online questa app chiamata TensorFlow Serving con OnWorks gratuitamente.
Segui queste istruzioni per eseguire questa app:
- 1. Scaricata questa applicazione sul tuo PC.
- 2. Entra nel nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 3. Carica questa applicazione in tale file manager.
- 4. Avviare l'emulatore online OnWorks Linux o Windows online o l'emulatore online MACOS da questo sito Web.
- 5. Dal sistema operativo OnWorks Linux che hai appena avviato, vai al nostro file manager https://www.onworks.net/myfiles.php?username=XXXXX con il nome utente che desideri.
- 6. Scarica l'applicazione, installala ed eseguila.
IMMAGINI
Ad
Servizio TensorFlow
DESCRIZIONE
TensorFlow Serving è un sistema di servizio flessibile e ad alte prestazioni per modelli di machine learning, progettato per ambienti di produzione. Si occupa dell'aspetto dell'inferenza dell'apprendimento automatico, prendendo modelli dopo l'addestramento e gestendo le loro vite, fornendo ai clienti l'accesso con versione tramite una tabella di ricerca conteggiata ad alte prestazioni. TensorFlow Serving fornisce l'integrazione pronta all'uso con i modelli TensorFlow, ma può essere facilmente esteso per servire altri tipi di modelli e dati. Il modo più semplice e diretto di utilizzare TensorFlow Serving è con le immagini Docker. Consigliamo vivamente questo percorso a meno che tu non abbia esigenze specifiche che non vengono affrontate eseguendo in un contenitore. Per servire un modello Tensorflow, esporta semplicemente un SavedModel dal tuo programma Tensorflow. SavedModel è un formato di serializzazione ermetico, recuperabile e indipendente dal linguaggio che consente a sistemi e strumenti di livello superiore di produrre, consumare e trasformare i modelli TensorFlow.
Caratteristiche
- Può servire più modelli o più versioni dello stesso modello contemporaneamente
- Espone sia gRPC che endpoint di inferenza HTTP
- Consente la distribuzione di nuove versioni del modello senza modificare alcun codice client
- Supporta il canarying di nuove versioni e modelli sperimentali di test A/B
- Aggiunge una latenza minima al tempo di inferenza grazie a un'implementazione efficiente e a basso sovraccarico
- Dispone di uno scheduler che raggruppa le richieste di inferenza individuali in batch per l'esecuzione congiunta su GPU, con controlli di latenza configurabili
Linguaggio di programmazione
C++
Categorie
Questa è un'applicazione che può anche essere scaricata da https://sourceforge.net/projects/tensorflow-serving.mirror/. È stato ospitato in OnWorks per essere eseguito online nel modo più semplice da uno dei nostri sistemi operativi gratuiti.