2011
2014
Überblick:
An der in 2011 neu eingerichteten Forschergruppe "3D Trassenplanung" sind drei Arbeitsgruppen von der TU München und zwei vom KIT beteiligt.
Die Arbeitsgruppe von Prof. Rank und Dr. Mundani vom Lehrstuhl für Computation in Engineering der TU München beteiligen sich in der Forschergruppe an der Entwicklung einer Kooperationsplattform für die multidisziplinäre Trassenplanung auf der Basis mehrskaliger Modelle. Das Team von Prof. Borrmann vom Fachgebiet Computergestützte Modellierung und Simulation der TU München untersucht Methoden der Mehrskaligkeit in 3D Stadt- und Bauwerkmodellen. Schließlich sind Prof. Schilcher und Dr. Donaubauer vom Fachgebiet Geoinformationssysteme für die Entwicklung neuartiger Geo-Web-Services verantwortlich.
Am KIT untersucht die Gruppe am Geodätischen Institut um den Sprecher der Forschergruppe Prof. Martin Breunig und Mathias Menninghaus Methoden für den mobilen und internet-basierten Zugriff auf raum-zeitliche Datenbanken. Das Team von Prof. Stefan Hinz vom Institut für Photogrammetrie und Fernerkundung schließlich erforscht das Tracking für mobile bildgestützte Systeme für die Vor-Ort-Visualisierung im Kontext der kooperativen Trassenplanung.
Teilprojekt des IPF:
In diesem Teilprojekt geht es um die Entwicklung eines mobilen, kamerabasierten Systems, dass es Planern erlaubt, 3D Modelle in Form von Bau- und Konstruktionsplänen während der Bauphase und anschließend im Facility Management vor Ort mit den tatsächlichen Gegebenheiten zu vergleichen. Die Überlagerung von Modell und Kamerabild soll eine Inspektion und Dokumentation möglicher Diskrepanzen zwischen geplantem Modell und der tatsächlichen Durchführung ermöglichen. Der Fokus der Arbeiten liegt daher auf der Entwicklung der methodischen Grundlagen zur Durchführung von Vor-Ort-Analysen und Bewertungen.
Hierzu müssen die verschiedenen – ggf. mehrskaligen – Varianten der geplanten 3D Modelle des Bauwerks verortet, orientiert und skaliert werden. Da innerhalb von Bauwerken keine zuverlässigen GPS-Signale empfangen werden können, soll die Lokalisierung rein durch bildgestützte Verfahren erfolgen. Um die Anzahl der sichtbaren Merkmale im Kamerabild zu maximieren, soll ein System aus mehreren Fisheye Kameras konzipiert und kalibriert werden. Der Fokus der Forschungsarbeiten während der ersten Projektphase liegt in der Entwicklung der entsprechenden Bildverarbeitungs- und Schätzmethoden zur initialen Positionierung und Orientierung des Fisheye Kamerasystems anhand von Bild- und Modellinformation.
Zu Beginn wurde ein Prototyp des Helmkamerasystems entworfen. Er besteht aus 3 Fisheye Kameras, die jeweils einen Öffnungswinkel von mehr als 180° besitzen. Diese Konfiguration ermöglicht es, die gesamte Umgebung des Planers in einem 360° Panorama abzubilden. Durch den Überlappungsbereich wäre zusätzlich die Möglichkeit der Triangulation von 3D Punktmerkmalen gegeben.
Nach Realisierung des Systems wurden zunächst die Abbildungseigenschaften (innere Orientierung) der Fisheye Kameras untersucht und kalibriert. Dafür ist ein Kameramodell nötig, dass vom herkömmlichen Modell der Zentralprojektion abweicht, denn Fisheye Kameras bilden auch Objektpunkte ab, die hinter der Bildebene liegen, also deren Sehstrahlen einen Einfallswinkel > 90° besitzen.
Anschließend muss die Lage der Kameras untereinander, also deren relative Orientierung bestimmt werden. Dies ist zum einen notwendig, um alle Bilder in ein gemeinsames System transformieren zu können, dient andererseits aber auch dazu, das Kameratracking, welches in der zweiten Projektphase entwickelt werden soll, zu stabilisieren.
Da die Kameras in unterschiedliche Richtungen zeigen, ist es nicht möglich das System über die gleichen Passpunkte in einem Schritt zu kalibrieren. Folglich wurde eine Trajektorie aufgenommen und synchrone Bilder (Keyframes) ausgewählt. Die Orientierung der Keyframes im Objektkoordinatensystem lässt sich nun über 2D-3D Korrespondenzen ableiten. Dazu wurden kreisförmige Zielmarken verwendet, da sich deren Mittelpunkt über eine ausgleichende Ellipse im Bild sub-pixel genau bestimmen lässt und stabil ist. Die 3D-Koordinaten wurden mittels Totalstation bestimmt. Die relative Lage der Kameras untereinander kann man nun als Mittel aus allen äußeren Orientierungen der Keyframes ableiten.
Abbildung 1: Oben: Neustes Helmkamerasystem. Die Bilder der drei in den Helm integrierten Fisheye Kameras werden synchron ausgelesen. Unten: Prototyp des Helmkamerasystems zu Projektbeginn. |
Da auf GPS verzichtet werden muss, soll eine Methode für die rein bildbasierte, initiale Positionsschätzung im 3D-Modell entwickelt werden. Diese ist Ausgangspunkt für das Tracking des Kamerasystems über die Zeit. Zu den Herausforderungen zählen, neben dem Verzicht auf GPS, die hohe Anzahl möglicher Startpositionen des Planers, mögliche Verdeckungen wie Baufahrzeuge und die Echtzeitfähigkeit des Verfahrens. Für die Zuordnung zwischen 3D-Modell und Bild müssen weiterhin robuste Merkmale gefunden werden, da herkömmliche Merkmalsdeskriptoren wegen der fehlenden Textur im 3D-Modell nicht anwendbar sind.
Abbildung 2: Oben: Initialisierte Kameraposition. Von hier kann eine verfeinerte Pose geschätzt und ein modelbasiertes Tracking beginnen. Unten: Testumgebung in Institutskeller. |
Dieses Video zeigt die Initialisierung mittels Partikelfilterung. Auf der rechten Seite sind die Partikel (Positionshypothesen) zu sehen und auf der linken Seite die Initialisierte Position. Sobald die Initialisierung abgeschlossen ist, wird das Model in alle Fisheye Kameras projiziert. Bis hierhin ist noch kein Tracking erfolgt.