Il s'agit de l'application Windows Flama, dont la dernière version est téléchargeable sous le nom flama-1.11.2.tar.gz. Elle peut être exécutée en ligne sur l'hébergeur gratuit OnWorks pour postes de travail.
Téléchargez et exécutez en ligne cette application nommée Flama avec OnWorks gratuitement.
Suivez ces instructions pour exécuter cette application :
- 1. Téléchargé cette application sur votre PC.
- 2. Entrez dans notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous voulez.
- 3. Téléchargez cette application dans ce gestionnaire de fichiers.
- 4. Démarrez n'importe quel émulateur en ligne OS OnWorks à partir de ce site Web, mais un meilleur émulateur en ligne Windows.
- 5. Depuis le système d'exploitation OnWorks Windows que vous venez de démarrer, accédez à notre gestionnaire de fichiers https://www.onworks.net/myfiles.php?username=XXXXX avec le nom d'utilisateur que vous souhaitez.
- 6. Téléchargez l'application et installez-la.
- 7. Téléchargez Wine depuis les dépôts de logiciels de vos distributions Linux. Une fois installé, vous pouvez ensuite double-cliquer sur l'application pour les exécuter avec Wine. Vous pouvez également essayer PlayOnLinux, une interface sophistiquée sur Wine qui vous aidera à installer des programmes et des jeux Windows populaires.
Wine est un moyen d'exécuter un logiciel Windows sur Linux, mais sans Windows requis. Wine est une couche de compatibilité Windows open source qui peut exécuter des programmes Windows directement sur n'importe quel bureau Linux. Essentiellement, Wine essaie de ré-implémenter suffisamment de Windows à partir de zéro pour qu'il puisse exécuter toutes ces applications Windows sans avoir réellement besoin de Windows.
CAPTURES D'ÉCRAN:
Flamme
DESCRIPTION:
Flama est une bibliothèque Python qui établit un cadre standard pour le développement et le déploiement d'API, notamment pour le machine learning (ML). Son objectif principal est de simplifier considérablement le déploiement des API ML, en réduisant (lorsque cela est possible) l'ensemble du processus à une seule ligne de code. La bibliothèque s'appuie sur Starlette et propose une approche intuitive pour accélérer la création d'API GraphQL, REST et ML hautement performantes. De plus, elle constitue une solution idéale pour le développement de services asynchrones et prêts pour la production, offrant un déploiement automatique des modèles ML.
Features
- Classes génériques pour les ressources API avec la commodité des méthodes CRUD standard sur les tables SQLAlchemy
- Un système de schéma (basé sur Marshmallow ou Typesystem) qui permet la déclaration des entrées et des sorties des points de terminaison très facilement, avec la commodité d'une validation fiable et automatique du type de données
- Injection de dépendances pour simplifier la gestion des paramètres requis dans les points de terminaison grâce à l'utilisation de composants. Les objets ASGI Flama tels que les requêtes, les réponses et les sessions sont définis comme des composants prêts à être injectés dans vos points de terminaison.
- Composants comme base de l'écosystème des plugins, vous permettant de créer des composants personnalisés ou d'utiliser ceux déjà définis dans vos points de terminaison, injectés en tant que paramètres
- Schéma d'API généré automatiquement à l'aide de la norme OpenAPI
- Documents générés automatiquement et fournit une interface utilisateur Swagger et des points de terminaison ReDoc
- Gestion automatique de la pagination, avec plusieurs méthodes à votre disposition telles que le décalage limite et la numérotation des pages, pour n'en citer que quelques-unes
Langage de programmation
Python
Catégories
Cette application peut également être téléchargée depuis https://sourceforge.net/projects/flama.mirror/. Elle est hébergée sur OnWorks afin de pouvoir être exécutée en ligne plus facilement depuis l'un de nos systèmes d'exploitation gratuits.