µÚÒ»×ãÇòÍø_188±È·ÖÖ±²¥-¹ÙÍø

ͼƬ
Eine Frau steht mit einer VR-Brille in der Leonhardsvorstadt und l?sst sich von einem Mann die Anwendung erkl?ren, im Hintergrund die Leonhardskirche

Streetmoves4iCity: Field Trip und Soundwalk bei der Urban-Future-Konferenz

23. Juni 2023

Im Rahmen der Urban Future Konferenz ¨C einer der wichtigsten Konferenzen f¨¹r nachhaltige St?dte in Europa - veranstalteten Forscherinnen und Forscher des iCity-Teilprojekts Streetmoves4iCity am 23. Juni einen Field Trip mit 12 Teilnehmenden in der Leonhardsvorstadt / Stuttgart. Ziel dieses Field Trips war es, den Teilnehmenden einen Einblick in m?gliche Szenarien zur Reduzierung von Autoverkehr und -l?rm sowie zur Erh?hung der Aufenthaltsqualit?t in diesem Quartier zu geben. Die?Forschungspartnerschaft iCity wird durch das Bundesministerium f¨¹r Bildung und Forschung (BMBF) mit rund 10 Mio. € im Rahmen der F?rderma?nahme ?Starke Fachhochschulen ¨C Impuls f¨¹r die Region¡° (FH-Impuls) gef?rdert.

Auf einem Weg von Altstadtkern durch beispielhaften, neuartigen Stra?entyp und innerst?dtische Bundesstra?e wurde der r?umlich-programmatische Umgang mit Verkehr in Stuttgart gezeigt und diskutiert. Die Fallstudie Leonhardsplatz wurde hierbei eingeordnet, um den status quo als Grundlage von Experimenten offenzulegen.

Das Team der Wirtschaftspsychologie versetzte die Teilnehmenden mit Hilfe von Virtual, Mixed und Augmented Reality in drei unterschiedliche Szenarien, welche die Auswirkungen einer Reduzierung des Autoverkehrs erlebbar machen sollten. Im Anschluss wurde mittels einer kurzen Befragung evaluiert, welche der genutzten Technologien es den Teilnehmenden am ehesten erm?glichte, sich in die zuk¨¹nftige Situation hineinzuversetzen.?
Im ersten Szenario (Virtual Reality) sahen die Teilnehmenden ein 360 Grad-Video einer umgestalteten verkehrsberuhigten Stra?e in Mannheim. Sie konnten sich in der Umgebung in alle Richtungen drehen und die Stra?e so aus unterschiedlichen Perspektiven wahrnehmen. Das zweite Szenario (Virtual Reality) zeigte den umgestalteten Leonhardsplatz als programmierte Umgebung. Hier wurde gezeigt, wie dieser Platz mit mehr Gr¨¹nfl?chen aussehen k?nnte. Die Teilnehmenden konnten sich in der virtuellen Welt mit Hilfe eines Joysticks frei bewegen. Im dritten Szenario (Mixed Reality) versammelten sich die Teilnehmenden direkt auf dem Leonhardsplatz und sahen durch die AR-Brille die reale Umgebung, die stellenweise durch virtuelle Elemente ¨¹berblendet wurde. Die ?berblendungen zeigten ebenfalls den Platz mit mehr Gr¨¹nfl?chen und Sitzgelegenheiten. Die technische Entwicklung dieser Augmented Reality, insbesondere r?umlich korrekte Einblendung der virtuellen Umgebung, die teilweise durch reale Objekte verdeckt werden, erfolgte durch das Geoinformatik-Team im Streetmoves4iCity-Projekt.
Das dritte Szenario wurde von den meisten Teilnehmenden am immersivsten wahrgenommen, d.h. hier konnten sie sich am besten in die Situation hineinversetzen.

Die akustischen Aspekte wurden vom Team der µÚÒ»×ãÇòÍø_188±È·ÖÖ±²¥-¹ÙÍø beleuchtet. Die Teilnehmenden erlebten auf dem kurzen Weg vom Treffpunkt Hans-im-Gl¨¹ck-Brunnen ¨¹ber die Eberhardstra?e und die Hauptst?tter Stra?e (B14) zum Leonhardsplatz ganz unterschiedliche akustische Szenarien der Stadt. Hierbei wurde das Konzept ?Soundwalk¡° vorgestellt. Durch entsprechende Hinweise r¨¹ckten auf dem Spaziergang die sonst nur peripher wahrgenommen Ger?usche zumindest zeitweise in den Mittelpunkt der Wahrnehmung. W?hrend am Hans-im-Gl¨¹ck-Brunnen (Fu?g?ngerzone) Baul?rm vorherrschte, war es in der Eberhardstra?e (Fahrradstra?e) angenehm ruhig. Beim Weiterweg durch eine kleine Fu?g?ngerzone zur Hauptst?tter Stra?e dominierte dann dort der Verkehrsl?rm. Am Leonhardsplatz selbst ist der Verkehrsl?rm der Hauptst?tter Stra?e durch die Leonhardskirche etwas abgeschirmt. Der dort vorhandene Verkehr (Parkplatzsuche, Lieferverkehr) f¨¹hrt dann beim Aufenthalt beispielsweise bei Gespr?chen zu kurzfristigen St?rungen. Am Leonhardsplatz wurden mit den Teilnehmenden eine Befragung zur akustischen Wahrnehmung der dortigen Umgebung durchgef¨¹hrt. Mit einer akustischen Kamera konnte den Teilnehmenden gezeigt werden, wie Schallquellen (in der Regel vorbeifahrende Fahrzeuge) lokalisiert und deren Ger?usch visualisiert werden k?nnen. Die akustische Kamera nutzt dabei die Messergebnisse einer Vielzahl von nebeneinander angeordneten Mikrofonen zum Lokalisieren von Schallquellen und stellt die Ergebnisse als akustisches Video dar.
F¨¹r die Mehrzahl der Teilnehmenden waren vor allem die Verkehrsger?usche der direkt auf dem Leonhardsplatz vorbeifahrenden Fahrzeuge st?rend, da hierdurch Gespr?che unterbrochen bzw. die Sprachverst?ndlichkeit deutlich vermindert wurde.

?

Alfakhori, M.; Sardi Barzallo, J.S.; Coors, V. Occlusion Handling for Mobile AR Applications in Indoor and Outdoor Scenarios. Sensors 2023, 23, 4245.

Ver?ffentlichungsdatum: 09. August 2023