Dies ist die Windows-App namens Pruna AI, deren neueste Version als v0.2.5sourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens Pruna AI mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie einen beliebigen OS OnWorks-Online-Emulator von dieser Website, aber einen besseren Windows-Online-Emulator.
- 5. Rufen Sie vom gerade gestarteten OnWorks Windows-Betriebssystem unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter und installieren Sie sie.
- 7. Laden Sie Wine aus den Software-Repositorys Ihrer Linux-Distributionen herunter. Nach der Installation können Sie dann auf die App doppelklicken, um sie mit Wine auszuführen. Sie können auch PlayOnLinux ausprobieren, eine schicke Schnittstelle über Wine, die Ihnen bei der Installation beliebter Windows-Programme und -Spiele hilft.
Wine ist eine Möglichkeit, Windows-Software unter Linux auszuführen, jedoch ohne Windows. Wine ist eine Open-Source-Windows-Kompatibilitätsschicht, die Windows-Programme direkt auf jedem Linux-Desktop ausführen kann. Im Wesentlichen versucht Wine, genügend Windows von Grund auf neu zu implementieren, damit alle diese Windows-Anwendungen ausgeführt werden können, ohne dass Windows tatsächlich benötigt wird.
SCREENSHOTS:
Pruna AI
BESCHREIBUNG:
Pruna ist eine Open-Source-KI-Inferenz-Engine, die Teams dabei unterstützt, große Sprachmodelle (LLMs) effizient in privaten oder hybriden Infrastrukturen bereitzustellen und zu verwalten. Pruna wurde mit Blick auf Leistung und Entwicklerergonomie entwickelt und vereinfacht Inferenz-Workflows durch Multi-Modell-Orchestrierung, Autoskalierung, GPU-Ressourcenzuweisung und Kompatibilität mit gängigen Open-Source-Modellen. Sie ist ideal für Unternehmen oder Teams, die die Abhängigkeit von externen APIs reduzieren und gleichzeitig Geschwindigkeit, Kosteneffizienz und volle Kontrolle über ihre Daten und ihren KI-Stack beibehalten möchten. Mit dem Fokus auf Erweiterbarkeit und Beobachtbarkeit ermöglicht Pruna Ingenieuren die sichere und zuverlässige Skalierung von LLM-Anwendungen vom Prototyp bis zur Produktion.
Eigenschaften
- Selbstgehostete Engine zur Verwaltung der LLM-Inferenz
- Unterstützt Multi-Modell-Orchestrierung und Routing
- Dynamische Autoskalierung zur Ressourcenoptimierung
- GPU-bewusste Planung und Lastverteilung
- Kompatibel mit Open-Source-Modellen wie LLaMA und Mistral
- HTTP- und gRPC-APIs für eine einfache Integration
- Integrierte Beobachtung und Leistungsverfolgung
- Einsatzbereit mit Docker- und Kubernetes-Unterstützung
Programmiersprache
Python
Kategorien
Diese Anwendung ist auch unter https://sourceforge.net/projects/pruna-ai.mirror/ verfügbar. Sie wurde in OnWorks gehostet, um die Ausführung online auf einem unserer kostenlosen Betriebssysteme zu vereinfachen.