Mögliche Themen
Thema | Kurzbeschreibung | Abschlussart | Ansprechpartner |
---|---|---|---|
Vergleich von Baum-Segmentierung tools |
In den letzten Jahren wurden zahlreiche Tools zur Segmentierung von forstlichen Punktwolken entwickelt. Eine Übersicht ist zu finden. In dieser Arbeit sollen die 5 auf Python basierenden Tools getestet und verglichen werden. Eine Punktwolke wird von uns zur Verfügung gestellt. hier Vorkenntnisse empfohlen: Github und Python |
Bachelor | Mona Goebel |
Segmentierung seltener Klassen mit Hilfe von Basismodellen aus 2D-Bildern |
Klassifizierung und Segmentierung sind grundlegende Aufgaben im Bereich der Fernerkundung und Bildanalyse. Zu diesem Zweck werden häufig Modelle des maschinellen Lernens verwendet, die mit einem Trainingsdatensatz trainiert wurden. Die typischen Klassen eines Trainingsdatensatzes sind: Gebäude, Straßen, Wälder, Landwirtschaft, …. Aber was passiert mit bisher unbekannten Gebieten und Objekten? Im Falle von Naturkatastrophen hätten diese Modelle mit zerstörten Gebäuden, überfluteten Gebieten, verschlammten Straßen oder verbrannten Wäldern zu kämpfen. Bei der Arbeit mit Bildern von Naturkatastrophen, wie dem Ahrtal-Hochwasser im Jahr 2021, müssen diese ungewöhnlichen Gebiete mit Hilfe eines bereits trainierten maschinellen Lernmodells identifiziert werden. In dieser Arbeit soll ein Modell mit bereits verfügbaren Tools an neue Objekte angepasst werden. Es sind Programmierkenntnisse in Python und Matlab von Vorteil. |
Master | und Kevin Qiu mit Ko-Betreuung durch das Rewanth Ravindran Fraunhofer IOSB |
Bestimmung von Baumparametern mittels LiDAR-3D-Punktwolken | Die Methoden des Machine Learnings verändern die Möglichkeiten der Fernerkundung für verschiedene Umweltanwendungen – von der Überwachung der Abholzung von Wäldern bis hin zur Erkennung von Rissen im Polareis. Durch das Aufkommen des Laserscannings (LiDAR) mittels Drohnen ist die Qualität der Details in den Daten in städtischen, landwirtschaftlichen oder forstwirtschaftlichen Kontexten höher als je zuvor. 3D-Punktwolken aus LiDAR-Daten und Modelle des Machine Learnings stellen eine sehr leistungsfähige Kombination dar, mit der sich nützliche Informationen wie die Segmentierung von Baumkronen oder die Schätzung der Biomasse von Stämmen und Ästen mit relativ hoher Genauigkeit ermitteln lassen. Bevor das Modell für den jeweiligen Zweck eingesetzt werden kann, muss es trainiert werden, indem es mit gelabelten Trainingsdaten gefüttert wird. Die Erzeugung von Trainingsdaten durch die händische Kartierung von Hunderten von Baumkronen in Luftbildern ist zeitaufwändig, arbeitsintensiv und lästig. Aber welche anderen Möglichkeiten gibt es, wenn nicht genügend Trainingsdaten für die Erstellung eines neuen Modells vorhanden sind? Können wir bereits vorhandene Universal-Modelle, die für die Bildsegmentierung entwickelt wurden (siehe von Meta AI), für unsere Anwendungen nutzen? Können wir diese Modelle mit Hilfe bestehender Methoden minimal anpassen, so dass wir eine bessere Genauigkeit bei der Schätzung der Baumparameter erzielen? Dies sind Fragen, die in dieser Masterarbeit adressiert werden sollen. (Betreuung auf Englisch) SAM | Master | und Rewanth Ravindran mit Ko-Betreuung durch das Kevin Qiu Fraunhofer IOSB |
Eigener Vorschlag zum Thema 3D Punktwolken, Laserscannen, Mobile Mapping |
Wenn Sie sich für die Arbeit mit Daten von 3D-Sensorsystemen interessieren, aber die vorgestellten Themen nicht ganz Ihren Interessen/Anforderungen/Qualifikationen entsprechen, nehmen Sie einfach Kontakt mit uns auf. In den meisten Fällen werden wir in der Lage sein, ein Thema für Sie zu finden, das Ihren spezifischen Interessen und Fähigkeiten entspricht, sowohl auf Bachelor- als auch auf Master-Ebene. Zurzeit konzentrieren wir uns vor allem auf die Erfassung, automatische Rekonstruktion und alle Arten von Analysen von zwei bestimmten Arten von Umgebungen: Innenräume von Gebäuden und Wälder. Wir sind aber auch flexibel gegenüber anderen Anwendungsszenarien, wenn Sie eine konkrete Idee mitbringen. |
Bachelor / Master | Mona Goebel Patrick Hübner |
Klassifikation von gescannten Gebäudebruchstücken zur Rekonstruktion historischer Gebäude | Die Bruchstücke einer jüdischen Bima wurden mittels Laserscanning erfasst. Aus diesen Bruchstücken wurde manuell das gesamte Gebäude rekonstruiert. In dieser Arbeit sollen Punktwolken der lasergescannten Bruchstücke mittels neuronaler Netze (z. B. PointNet++) als Gebäudeteile klassifiziert werden. Dies dient als erster Schritt um ein Zusammenpuzzeln der Bruchstücke zu vereinfachen. | Master | Jakob Schmidt |
*EXTERN* Automatisierte Biotopklassifizierung mittels State of the Art Technolo- gien unter Verwendung optischer Fernerkundungsdaten |
Entwicklung eines Systems zur automatisierten Biotopklassifikation mittels optischer Fernerkundungsdaten und Deep Learning Algorithmen. Weitere Informationen (wird in neuem Tab geöffnet) . siehe Ausschreibung |
Master |
Herr David Fett (DB Engineering & Consulting GmbH) Prof. Iwaszczuk |
Voxel-basierte Rekonstruktion von Indoor-Gebäudemodellen mit Methoden des Machine Learnings |
Scan2BIM, d.h. die automatisierte Rekonstruktion von Gebäudemodellen aus 3D-Sensordaten wie z.B. Mobile Mapping Punktwolken, ist ein sehr aktives Forschungsgebiet, das durch die steigende Nachfrage in der Bauindustrie, Architektur und im Facility Management nach genauen und aktuellen BIM-Modellen für bestehende Gebäude angetrieben wird. Das Fachgebiet verfügt über einen eigenen, voxelbasierten Ansatz zur Rekonstruktion von Innenräumen in Form von 3D-Voxel-Gittern (). Die Methode hat sich zwar für eine Vielzahl unterschiedlicher Gebäudeformen als anwendbar erwiesen, beruht aber nach wie vor auf einer Reihe spezifischer Regeln. Datengesteuerte Methoden, die auf maschinellem Lernen basieren, bieten ein größeres Potenzial für mehr Flexibilität. Daher wollen wir verschiedene Methoden des klassischen maschinellen Lernens und des Deep Learning im Vergleich zu unserer regelbasierten Baseline ausprobieren. Mehr erfahren | Bachelor / Master | Patrick Hübner |
Vervollständigung verdeckter Wandoberflächen in verfügbaren Indoor-Gebäudedatensätzen mit Semantik | Scan2BIM, d.h. die automatisierte Rekonstruktion von Gebäudemodellen aus 3D-Sensordaten wie z.B. Mobile Mapping Punktwolken, ist ein sehr aktives Forschungsgebiet, getrieben durch die steigende Nachfrage in der Bauindustrie, Architektur und im Facility Management nach genauen und aktuellen BIM-Modellen für bestehende Gebäude. Zwar gibt es mittlerweile große 3D-Indoor-Mapping-Datensätze mit Tausenden von Gebäuden, aber diese Datensätze liefern Ground-Truth typischerweise nur in Form von semantischer Segemtierung der dargestellten Geometrien, d.h. die Information für jeden Punkt/Dreieck, ob er zu einer Wand, Treppe, Möbel etc. gehört. Ground-Truth-Informationen über verdeckte Gebäudeoberflächen, die nicht in den Indoor-Mapping-Geometrien repräsentiert sind (z.B. verdeckt durch Möbel), sind jedoch selten verfügbar, wären aber für das Training lernbasierter Scan2BIM-Ansätze von großer Bedeutung. Wir wollen uns die Tatsache zunutze machen, dass wir in den vorhandenen Datensätzen zumindest über Semantik verfügen und somit Möbelobjekte, die Wandflächen verdecken, leicht identifizieren können. Auf dieser Grundlage wollen wir darauf hinarbeiten, die vorhandenen großen Indoor-Datensätze durch eine automatisierte oder halbautomatisierte Vervollständigung der Gebäudeberflächen zu erweitern. | Bachelor / Master | Patrick Hübner |
Bildbasierte Rekonstruktion von Indoor-Gebäudemodellen | Scan2BIM, d.h. die automatisierte Rekonstruktion von Gebäudemodellen aus 3D-Sensordaten wie z.B. Mobile Mapping Punktwolken, ist ein sehr aktives Forschungsgebiet, das durch die steigende Nachfrage in der Bauindustrie, Architektur und im Facility Management nach genauen und aktuellen BIM-Modellen für bestehende Gebäude angetrieben wird. Es gibt bereits eine Vielzahl von Ansätzen zur Rekonstruktion von Gebäudemodellen auf Basis von 3D-Sensordaten wie z.B. Laserscannern. Aktive Sensorsysteme sind jedoch teuer in der Anschaffung und nicht so weit verbeitet wie Kameras. Aufgrund der besonderen Herausforderungen in Innenräumen sind Ansätze zur Rekonstruktion von Gebäudemodellen auf der Grundlage von Bilddaten noch selten. Aktuelle Fortschritte in der Photogrammetrie, z.B. durch die Einbindung von Deep Learning in die Pipeline oder durch die Verwendung impliziter neuronaler Repräsentationen anstelle expliziter Punktgeometrien als Szenenrepräsentationen, bieten neue Möglichkeiten, dieses anspruchsvolle Problem zu lösen. Wir wollen dieses Forschungsfeld in einer Reihe von Bachelor- und Masterarbeiten untersuchen. | Bachelor / Master | Patrick Hübner |
Large-Scale automatisierte Evaluierung von SLAM-Algorithmen in virtuellen Umgebungen |
SLAM-Algorithmen werden zur automatischen Bestimmung von Sensortrajektorien und 3D-Karten von Umgebungen verwendet, in denen sich ein mobiles Sensorsystem bewegt – auf der Grundlage von Bildsequenzen oder Sequenzen von Laserscandaten. Die Bewertung der Qualität von SLAM-Algorithmen ist jedoch aufwändig und erfolgt meist in einem begrenzten Rahmen, d.h. mit einer geringen Anzahl von Datensätzen und Trajektorien. In den letzten Jahren wurden große interaktive, virtuelle fotorealistische 3D-Umgebungen mit Tausenden von verschiedenen Gebäuden als Trainingsumgebung für selbstlernende autonome Roboter zur Verfügung gestellt (z. B. Gibson Environment, Habitat Matterport 3D). Wir als Geodäten sehen in diesen virtuellen Welten eine Chance zur präzisen und detaillierten, vollautomatischen quantitativen Evaluierung verschiedener Arten von SLAM-Algorithmen, die es uns erlauben, deren Qualität auf Tausenden von verschiedenen Trajektorien in unterschiedlichen Umgebungen zu bewerten, und wollen in einer Reihe von Bachelor- und Masterarbeiten auf dieses Ziel hinarbeiten. |
Bachelor / Master | Patrick Hübner |
Fusionierung multispektraler Daten aus dem Nahbereich mit geometrischer Rekonstruktion |
Multispektralkameras liefern eine breite Palette wertvoller Informationen über den Zustand von Vegetation. Sie werden jedoch in der Regel auf luftgestützten Plattformen wie Flugzeugen und Drohnen eingesetzt und für die großflächige Analyse von Luftbildern verwendet. Wir sind daran interessiert, diese Sensoren in Nahbereichsszenarien einzusetzen, z. B. bei der Analyse von Wäldern mit bodengestützten mobilen Mappingsystemen auf der Ebene einzelner Pflanzen. In diesem Zusammenhang spielt die komplexe, feinstrukturierte 3D-Geometrie von Vegetation eine größere Rolle als in den Vogelperspektiven von Drohnenanwendungen. In diesem Zusammenhang wollen wir untersuchen, wie bodengestützte multispektrale Bilddaten mit geometrischen Daten anderer Sensoren wie Lidar oder Tiefenkameras fusioniert werden können. Eine Familie von Ansätzen, die in diesem Zusammenhang von großem Interesse sind, sind neuronale Radianzfelder (NeRF). |
Bachelor / Master | Patrick Hübner |
Stand: 19.03.2024 |