Dies ist die Linux-App namens VGGSfM, deren neueste Version als vggsfmsourcecode.tar.gz heruntergeladen werden kann. Sie kann online beim kostenlosen Hosting-Anbieter OnWorks für Workstations ausgeführt werden.
Laden Sie diese App namens VGGSfM mit OnWorks kostenlos herunter und führen Sie sie online aus.
Befolgen Sie diese Anweisungen, um diese App auszuführen:
- 1. Diese Anwendung auf Ihren PC heruntergeladen.
- 2. Geben Sie in unserem Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX den gewünschten Benutzernamen ein.
- 3. Laden Sie diese Anwendung in einem solchen Dateimanager hoch.
- 4. Starten Sie den OnWorks Linux-Online- oder Windows-Online-Emulator oder den MACOS-Online-Emulator von dieser Website.
- 5. Rufen Sie vom gerade gestarteten OnWorks Linux-Betriebssystem aus unseren Dateimanager https://www.onworks.net/myfiles.php?username=XXXXX mit dem gewünschten Benutzernamen auf.
- 6. Laden Sie die Anwendung herunter, installieren Sie sie und führen Sie sie aus.
SCREENSHOTS:
VGGSfM
BESCHREIBUNG:
VGGSfM ist ein fortschrittliches Structure-from-Motion-Framework (SfM), das gemeinsam von Meta AI Research (GenAI) und der Visual Geometry Group (VGG) der Universität Oxford entwickelt wurde. Es rekonstruiert 3D-Geometrie, dichte Tiefe und Kameraposen direkt aus ungeordneten oder sequenziellen Bildern und Videos. Das System kombiniert erlernte Feature-Matching und geometrische Optimierung, um hochwertige Kamerakalibrierungen, dünne/dichte Punktwolken und Tiefenkarten im standardmäßigen COLMAP-Format zu generieren. Version 2.0 bietet Unterstützung für dynamische Szenenverarbeitung, den Export dichter Punktwolken, videobasierte Rekonstruktion (über 1000 Frames) und die Integration mit Gaussian-Splatting-Pipelines. Es nutzt Tools wie PyCOLMAP, Poselib, LightGlue und PyTorch3D für Feature-Matching, Posenschätzung und Visualisierung. Mit minimalem Konfigurationsaufwand können Benutzer einzelne Szenen oder ganze Videosequenzen verarbeiten, Bewegungsmasken anwenden, um bewegte Objekte auszuschließen, und neuronale Radianz- oder Splatting-Modelle direkt aus rekonstruierten Ausgaben trainieren.
Eigenschaften
- End-to-End-3D-Rekonstruktion aus Bildern oder Videos mit automatischer Kamerapositionsschätzung
- Ausgaben im Standard-COLMAP-Format, kompatibel mit NeRF- und Gaussian-Splatting-Pipelines
- Unterstützt über 1000 aufeinanderfolgende Frames mit gleitender Fenster-Videoverarbeitung
- Verarbeitet dynamische/bewegte Szenen über optionale Binärmasken
- Exportiert dichte Punktwolken und dichte Tiefenkarten (Beta)
- Einfache Integration mit gsplat für Gaussian-Splat-Training
- Interaktive Visualisierung mit Gradio oder Visdom
- Vortrainiertes Modell, automatisch von Hugging Face oder Google Drive heruntergeladen
Programmiersprache
Python, Unix-Shell
Kategorien
Diese Anwendung kann auch von https://sourceforge.net/projects/vggsfm.mirror/ heruntergeladen werden. Sie wurde in OnWorks gehostet, um sie auf einfachste Weise online von einem unserer kostenlosen Betriebssysteme aus ausführen zu können.