Partizipation in Stadtplanungsprozessen In virtuellen und realen Räumen

Überblick

Ziel des vorliegenden Verbundprojekts ist die benutzer*innenzentrierte Entwicklung eines Demonstrators einer kooperativen Multi-User-Anwendung mit integrierter MR-Technologie (mixed reality), die breite Bevölkerungsschichten zur Beteiligung an demokratischen Entscheidungsprozessen im Bereich Stadtplanung anregen soll, indem ein immersives Erleben virtueller Planungsstände ermöglicht und durch eine intuitive Benutzer*innenführung und asynchrone Interaktionen Partizipationshemmschwellen abgebaut werden.

Fragestellung

Der Einsatz von Augmented Reality (AR) im Außenbereich und in der Industrie wird zunehmend wichtiger. Eine genaue Ortung wird jedoch im urbanen Umfeld beispielsweise aufgrund von hohen Gebäuden erschwert. Die Genauigkeit des GPS-Empfang wird dadurch deutlich geschwächt. Im Innenbereich, wie in Fertigungswerken, besteht gar keinerlei GPS-Empfang. Durch Pointcloud-Matching-Verfahren können alternative Ortungsoptionen, wie Marker oder Bildreferenzierungen, verringert und die Präzision der Ortung erhöht werden.

Vorgehensweise

Im Teilprojekt der HFT Stuttgart wird unter Berücksichtigung der aktuellen Soft- und Hardwarelösungen im AR-Bereich eine Architektur für den AR Client und das Tracking-System konzipiert und prototypisch implementiert. Der Schwerpunkt liegt auf einem innovativen Trackingsystem, das Point Cloud Matching-Verfahren nutzt. Es erfolgt eine Evaluation anhand von Fallstudien.

Angestrebte Ergebnisse

Es soll ein neuartiges 6-DOF-Trackingverfahren für mobile Outdoor-Augmented-Reality-Anwendungen auf Basis von Punktwolken entwickelt werden, das bestehende Verfahren insbesondere zum sog. Line-of-sight-Tracking ergänzt. Zu diesem Zweck sollen bei den Projektpartnern vorhandene hochaufgelöste Punktwolken des Stadtraums, die z. B. über mobile Mappingverfahren erfasst wurden, als Referenz-Punktwolke genutzt werden. Geeignet aufbereitete Teilmengen der Punktwolken sollen passend zur aktuellen Region der Benutzer*innen nach Bedarf (z. B. anhand der auf dem Smartphone bereits verfügbaren Lokalisierung) auf das jeweilige mobile Gerät übertragen werden, um das genaue Sichtfeld der/des Nutzenden (Standort und Blickrichtung) zu ermitteln.

LeitungProf. Dr.-Ing. Volker Coors
PartnerHochschule für Technik und Wirtschaft Berlin, Hochschule für Wirtschaft und Recht Berlin, Beuth Hochschule für Technik Berlin, Kompetenzzentrum für virtuelle Realität und Kooperatives Engin. (VDC), Point Cloud Technology GmbH, Frauencomputerzentrum Berlin e.V., Stadt Fellbach
FördergeberBundesministerium für Bildung und Forschung (BMBF)
ProgrammForschungsprogramm zur Mensch-Technik-Interaktion
AusschreibungTechnik zum Mensch bringen
Laufzeit01.08.2021–31.07.2024

 

Team

Name & Position E-Mail & Telefon Büro
Prorektor Forschung und Digitalisierung+49 711 8926 2663 1/121
Akademischer Mitarbeiter