Это Linux-приложение TensorFlow Serving, последнюю версию которого можно скачать в формате 2.19.1sourcecode.tar.gz. Его можно запустить онлайн на бесплатном хостинг-провайдере OnWorks для рабочих станций.
Загрузите и запустите онлайн это приложение под названием TensorFlow Serving with OnWorks бесплатно.
Следуйте этим инструкциям, чтобы запустить это приложение:
- 1. Загрузил это приложение на свой компьютер.
- 2. Введите в нашем файловом менеджере https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 3. Загрузите это приложение в такой файловый менеджер.
- 4. Запустите онлайн-эмулятор OnWorks Linux или Windows или онлайн-эмулятор MACOS с этого веб-сайта.
- 5. В только что запущенной ОС OnWorks Linux перейдите в наш файловый менеджер https://www.onworks.net/myfiles.php?username=XXXXX с желаемым именем пользователя.
- 6. Скачайте приложение, установите его и запустите.
СКРИНШОТЫ:
Обслуживание TensorFlow
ОПИСАНИЕ:
TensorFlow Serving - это гибкая, высокопроизводительная система обслуживания моделей машинного обучения, разработанная для производственных сред. Он касается аспекта логического вывода в машинном обучении, взятия моделей после обучения и управления их сроками службы, обеспечивая клиентам версионный доступ через высокопроизводительную справочную таблицу с подсчетом ссылок. TensorFlow Serving обеспечивает готовую интеграцию с моделями TensorFlow, но может быть легко расширен для обслуживания других типов моделей и данных. Самый простой и понятный способ использования TensorFlow Serving - это образы Docker. Мы настоятельно рекомендуем этот маршрут, если у вас нет особых потребностей, которые не решаются путем запуска в контейнере. Чтобы обслуживать модель Tensorflow, просто экспортируйте SavedModel из своей программы Tensorflow. SavedModel - это не зависящий от языка, восстанавливаемый, герметичный формат сериализации, который позволяет высокоуровневым системам и инструментам создавать, использовать и преобразовывать модели TensorFlow.
Особенности
- Может обслуживать несколько моделей или несколько версий одной и той же модели одновременно
- Предоставляет как gRPC, так и конечные точки вывода HTTP
- Позволяет развертывать новые версии моделей без изменения клиентского кода
- Поддерживает новые версии Canarying и экспериментальные модели A / B-тестирования
- Добавляет минимальную задержку ко времени вывода за счет эффективной реализации с низкими накладными расходами
- Имеет планировщик, который группирует отдельные запросы логического вывода в пакеты для совместного выполнения на графическом процессоре, с настраиваемыми элементами управления задержкой.
Язык программирования
C + +
Категории
Это приложение также можно загрузить с https://sourceforge.net/projects/tensorflow-serving.mirror/. Он размещен в OnWorks, чтобы его можно было легко запускать в Интернете с помощью одной из наших бесплатных операционных систем.