Aceasta este aplicația Linux numită TensorFlow Serving, a cărei ultimă versiune poate fi descărcată ca 2.19.1sourcecode.tar.gz. Poate fi rulată online în furnizorul de găzduire gratuită OnWorks pentru stații de lucru.
Descărcați și rulați online această aplicație numită TensorFlow Servire cu OnWorks gratuit.
Urmați aceste instrucțiuni pentru a rula această aplicație:
- 1. Ați descărcat această aplicație pe computer.
- 2. Introduceți în managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator pe care îl doriți.
- 3. Încărcați această aplicație într-un astfel de manager de fișiere.
- 4. Porniți emulatorul online OnWorks Linux sau Windows online sau emulatorul online MACOS de pe acest site web.
- 5. Din sistemul de operare OnWorks Linux pe care tocmai l-ați pornit, accesați managerul nostru de fișiere https://www.onworks.net/myfiles.php?username=XXXXX cu numele de utilizator dorit.
- 6. Descărcați aplicația, instalați-o și rulați-o.
SCREENSHOTS
Ad
Servire TensorFlow
DESCRIERE
TensorFlow Serving este un sistem de servire flexibil, de înaltă performanță, pentru modele de învățare automată, conceput pentru medii de producție. Se ocupă de aspectul de inferență al învățării automate, luând modele după antrenament și gestionând durata de viață a acestora, oferind clienților acces versiuni printr-un tabel de căutare de înaltă performanță, numărat în funcție de referințe. TensorFlow Serving oferă o integrare imediată cu modelele TensorFlow, dar poate fi extins cu ușurință pentru a servi și alte tipuri de modele și date. Cel mai simplu și mai simplu mod de a folosi TensorFlow Serving este cu imaginile Docker. Vă recomandăm cu căldură această rută, cu excepția cazului în care aveți nevoi specifice care nu sunt abordate prin rularea într-un container. Pentru a servi un model Tensorflow, pur și simplu exportați un SavedModel din programul dvs. Tensorflow. SavedModel este un format de serializare ermetic, neutru din punct de vedere al limbajului, care permite sistemelor și instrumentelor de nivel superior să producă, să consume și să transforme modele TensorFlow.
Categorii
- Poate servi mai multe modele sau mai multe versiuni ale aceluiași model simultan
- Expune atât punctele finale de inferență gRPC, cât și HTTP
- Permite implementarea de noi versiuni de model fără a modifica niciun cod de client
- Suporta versiuni noi canary și modele experimentale de testare A/B
- Adaugă o latență minimă la timpul de inferență datorită implementării eficiente și cu cheltuieli generale reduse
- Dispune de un planificator care grupează cererile individuale de inferență în loturi pentru execuția comună pe GPU, cu controale de latență configurabile
Limbaj de programare
C ++
Categorii
Aceasta este o aplicație care poate fi preluată și de la https://sourceforge.net/projects/tensorflow-serving.mirror/. A fost găzduit în OnWorks pentru a fi rulat online într-un mod cât mai ușor de pe unul dintre sistemele noastre operative gratuite.