17.08.2022

Smart City 2.0

Intelligente Umgebungen und virtuelle Realität für eine nachhaltige und inklusive Stadt

Smarte Helfer begleiten uns im Auto, bei der Arbeit und im Haushalt. Wir überwachen, verwalten und nutzen, was technisch möglich ist. Dabei lassen wir uns meist von der Technik leiten. Das Projekt „Applicability of Ambient Intelligence Approaches in Virtual Reality (AAmI-VR)“ der TH Nürnberg will das nun umkehren und modelliert dazu Virtual Reality-Umgebungen, in denen smarte Ansätze ausgerichtet an den Bedürfnissen der Menschen getestet werden können.

Karolina Albrecht

Aus OHM-Journal 2022/1

Was erst einmal sehr technisch klingt, beinhaltet einen sehr sozialen Kern. Denn in dem Projekt „AAmI-VR“ arbeitet ein siebenköpfiges Team der TH Nürnberg zusammen mit externen Partnern an Lösungen für eine menschenzentrierte Smart City unter Anwendung von Virtual Reality-Modellen. Beschränkte sich die Forschung zu intelligenten Städten noch auf technische Machbarkeiten, liegt das Innovative des Forschungsprojekts in seiner sozio-technischen und menschzentrierten Perspektive, an der es häufig im Techniksektor noch mangelt. Prof. Dr. Frank Ebinger, der am Nuremberg Campus of Technology (NCT) die Forschungsprofessur Nachhaltigkeitsorientiertes Innovations- und Transformationsmanagement inne hat, erklärt: „Gerade deshalb gibt es unseren Projektansatz, obwohl wir damit schon eher Paradiesvögel sind. In den Ingenieurwissenschaften wird vielfach noch deutlich anders gedacht. Es steht meist die Effizienz technischer Lösungen im Mittelpunkt und vielfach bleibt die menschzentrierte Anwendungsperspektive unterbelichtet, die sozialen und ökologischen Konsequenzen, die mitgedacht werden sollten. Transdisziplinarität sollte Einzug halten. Eine Technikfolgenabschätzung sollte forschungsbegleitend eingesetzt werden, will man nicht vor den vor uns stehenden Nachhaltigkeitsherausforderungen blind bleiben.“

Eine Ausschreibung von LEONARDO – Zentrum für Kreativität und Innovation ermöglichte es nun, genau diesen Projektansatz umzusetzen, inklusive Ambient Intelligence-Ansätze mit 3D-Gebäudemodellen zu vereinen und damit intelligente Umgebung sowohl in Innenräumen als auch im Außenbereich simulieren und testen zu können.

Im besten Fall unterstützt die Technik über unauffällig im Hintergrund ablaufende Prozesse. Das beschreibt das Prinzip der Ambient Intelligence (AmI). Hierbei werden Sensoren, die auf die Anwesenheit und Eigenschaften von Personen reagieren, in eine intelligente Umgebung eingebettet. Mithilfe von Künstlicher Intelligenz können Benutzerinnen und Benutzer dann ihren Bedürfnissen entsprechend unterstützt werden.

Eine Grundlage zur Orientierung schafft die Smart City Charta, die den systemischen Rahmen setzt. Die Charta definiert dazu Leitlinien für zukünftige Smart Cities, die Bürgerbeteiligung ebenso fördern wie soziale Ansätze und den Menschen in den Mittelpunkt stellen. Prof. Dr.-Ing. Harald Kipke, NCT und Forschungsprofessur Intelligente Verkehrsplanung, betont, „dass wir nicht den Fehler machen sollten, für Technik geradezu krampfhaft einen Anwendungsfall zu suchen, sondern dass der Weg genau umgekehrt sein sollte.“ Zunächst müssten quantifizierbare Ziele definiert werden, um dann im nächsten Schritt nach Maßnahmen zu suchen, mit denen diese Ziele erreicht werden können. „Da muss nicht zwanghaft Technik zur Anwendung kommen“, fährt er fort, „sondern nur da, wo sie in der Lage ist, einen nachweisbaren Beitrag zur Erfüllung dieser Ziele zu leisten. Die Technik muss dem Menschen dienen, nicht umgekehrt, und das sage ich als Ingenieur.“

Zu diesem Zweck entstanden zwei konkrete Anwendungsfelder: erstens entwickelte die Gruppe um Prof. Dr. Timo Götzelmann, Fakultät Informatik, eine barrierefreie, multimodale Informationsstation für die neue Bibliothek der TH Nürnberg und zweitens widmete sich Kipke mit seinem Team einer adaptiven Schnelligkeitsempfehlung für den Radverkehr in der Fürther Innenstadt, die das Fahren auf einer grünen Welle unterstützt. Beide Projekte basieren dabei auf vorab gelernten Mustern, die die Bedarfe der Benutzerinnen und Benutzer über Kameras oder Sensoren erkennen. Um Prototypen für beide Anwendungsfälle zu testen, setzte Prof. Dr.-Ing. Wolfram Stephan, Institut für Energie und Gebäude, den Eingangsbereich der Bibliothek im neuen Informationszentrum der TH Nürnberg als 3D-Umgebung um. Zum Planen, Bauen und Betreiben von Gebäuden und infrastrukturellen Anlagen werden zunehmend digitale, dreidimensionale Modelle eingesetzt. Diese Methode wird Building Information Modelling (BIM) genannt. Auch für das Informationszentrum erstellten Studierende auf der Basis von klassischen 2D-Bauplänen 3D-BIM-Modelle. Diese digitalen Modelle können nun mehrfach genutzt werden: Einerseits zur Unterstützung des klassischen Gebäudebetriebs und andererseits, wie im Projekt AAmI-VR, zur Unterstützung der Nutzerinnen und Nutzer des Infozentrums.

Ein großer Vorteil des 3D-Modellings: Fehler im virtuellen Aufbau fallen weit weniger ins Gewicht, indem sie frühzeitig und mit deutlich weniger Aufwand korrigiert werden können. Zugleich kann man testen, welche Varianten von späteren Benutzenden akzeptiert werden und was sie bewirken. Durch dieses Vorgehen können Zeit und Kosten eingespart werden. Auch Bürgerbeteiligung ist ein Thema, indem die Modelle die Einbeziehung späterer Betroffener schon früh ermöglichen, die Akzeptanz erhöhen und sich Wünsche und Bedürfnisse von Beginn an mitdenken lassen. Schließlich können aus den VR-Modellen Erkenntnisse abgeleitet werden, wie Personen mit speziellen Anforderungen im echten Leben unterstützt werden können. Und nicht nur das. „Der Einsatz dieser digitalen Zwillinge“, erläutert Stephan, „ermöglicht neben der Optimierung der Nutzung auch eine Optimierung und Kontrolle des Energieverbrauchs und des Raumkomforts von Gebäuden.“

Für das barrierefreie Informationssystem der Bibliothek wurden Prototypen eines mobilen Tisches und zweier Displays mit taktilem Feedback entwickelt, die sich den Benutzenden anpassen und ihnen – abgestimmt auf ihre spezifischen Bedürfnisse – die Orientierung in der Bibliothek erleichtern. Sie zeigen und erklären beispielsweise die Wege zu bestimmten Büchern, weisen auf Treppen und Aufzüge hin oder zeigen Sitzmöglichkeiten und Orientierungspunkte auf dem Weg an. Um diese Anpassung zu gewährleisten, entwickelte das Projektteam ein kamerabasiertes System, das eine automatische Unterscheidung zwischen drei Personengruppen ermöglicht: Fußgängerinnen und Fußgänger, Personen mit Taststock oder in Rollstühlen. Die Kamera erkennt am Eingang der Bibliothek die Person, ordnet sie ein und kann somit spezifische Unterstützung bieten. Das System lernt dabei nicht fortwährend mit, sondern beruht auf Inferenz. Das bedeutet, es wendet an großen Rechnern vorab gelernte Muster an. Deshalb wird keine große Leistung benötigt und die Daten verbleiben im Gerät, sodass ein etwa scheckkartengroßer Rechner ausreicht. Hat es eine Person erkannt, sendet es per Bluetooth ein Signal an einen Controller. „Diese Kommunikation zu anderen Komponenten ist ein ganz wichtiger Teil der Smart City 2.0. Außerdem ist wichtig, dass diese unter Berücksichtigung der Privatsphäre und der Bedürfnisse der Menschen verläuft. In unserer Anwendung werden deshalb keine sensiblen Daten übermittelt, sondern nur Schaltbefehle aufgrund einer optischen Erkennung gegeben“, erläutert Götzelmann. Das Bluetooth-Signal löst die Bewegung von Tisch und Tablet aus. So können Rollstuhlfahrer und Fußgängerinnen das Tablet in der richtigen Höhe und Neigung bedienen. Wird eine Person mit weißem Stock erkannt, wird ein audiotaktiles Tablet, das gemeinsam mit dem Behindertenrat und Bildungszentrum für Blinde und Sehbehinderte (BBS), Nürnberg entwickelt wurde, auf einem feststehenden Tisch aktiviert und macht akustisch auf sich aufmerksam. Erklärungen zur Nutzung des Tablets bietet ein Informationsblatt in Brailleschrift. Um das System unter realitätsnahen Bedingungen einsetzen zu können, wurden der Eingangsbereich der Bibliothek, die einzelnen Komponenten und Personen im Maßstab 1:1 unter Verwendung vorhandener BIM-Daten als Virtual Reality-Umgebung erstellt. Auf diese Weise konnten Funktionen und Position der Sensoren getestet werden, ohne die Bibliothek betreten zu müssen. Sowohl für die Bibliothek als auch für den zweiten Anwendungsfall konnten das Forschungsteam auf bestehende Daten zurückgreifen, teils aus Vorgängerprojekten oder sie nutzten Datensätze vergleichbarer Umgebungen.

Im zweiten Anwendungsfall entwickelten die Wissenschaftlerinnen und Wissenschaftler eine intelligente Anzeige für den Radverkehr in der Stadt Fürth. Sie gibt individuelle Empfehlungen zur Geschwindigkeitsanpassung, um Grünphasen auszunutzen. Die ersten Testdaten des Projekts stammten aus einer VR-Simulation, in der der Anwendungsfall virtuell konstruiert und die Bedingungen für die Umsetzung in der Realität festgelegt wurden. Anhand dieses bestehenden Modells wurde vorab getestet, ob die Sensoren und der Aufbau überhaupt funktionieren und wie sich die Idee umsetzen lässt. Entsprechend stand auch hier zuerst die Machbarkeit der Sensorik im Mittelpunkt. Dazu musste die Stadt möglichst realitätsnah abgebildet werden, wobei die Anwendungen der VR ein nützliches Werkzeug ergaben, um das Verhalten im Kontext von städtischem Raum und der dort stattfindenden Bewegungen zu erforschen. Für die Versuche unter realen Bedingungen genehmigte die Stadt Fürth die Installation eines Displays an der Straße, in welcher anschließend Testfahrten durchgeführt und zur Auswertung gefilmt werden konnten. Für diesen Anwendungsfall griff man nicht auf eine Kamera, sondern auf Sensoren zurück. Eine Kamera ist anfällig für wechselnde Lichtbedingungen: Schattenwürfe, Tageszeiten und Wetterbedingungen können die Erkennung stark beeinträchtigen. Radar- oder optische Sensoren können die Daten hingegen viel zuverlässiger erfassen und liefern zugleich nur die Information, die auch wirklich benötigt wird. Die Ausgangsfragen erklärt Daniela Ullmann, wissenschaftliche Mitarbeiterin am NCT im Bereich Intelligente Verkehrsplanung: „Am Anfang steht die Frage: Welche Daten brauche ich? Welche Informationen brauche ich vom ersten Knotenpunkt, vom zweiten und welche müssen vom Radfahrer erfasst werden, um dann diese grüne Welle favorisieren zu können? Letztendlich ist die Zeit entscheidend, an der der Radfahrer am nächsten Knotenpunkt ankommt.“ Diese Zeit wird aus dem Abstand des Sensors und der gemessenen gefahrenen Geschwindigkeit auf Höhe des Sensors berechnet. Mithilfe dieser Daten konnte dann eine Schnelligkeitsempfehlung für Radfahrerinnen und Radfahrer basierend auf adaptiven Parametern abgeleitet werden. Ist zu diesem Zeitpunkt die Ampel grün, erhält man die Information, das Tempo zu halten. Ist sie rot, wird berechnet, welche Grünphase näher an der prognostizierten Ankunftszeit liegt. Ist es die bereits verstrichene Grünphase, erhält man eine Meldung „schneller für grün“, ist es die darauffolgende, wird auf dem Display „langsamer für grün“ angezeigt.

Das Projekt wurde im Dezember 2021 abgeschlossen, die Erkenntnisse, die das Team generieren konnte, fließen schon jetzt in weitere Forschungsprojekte ein. Ebinger arbeitet beispielsweise an einer Anwendung zu Urban Gardening. Dort soll mit 360°-Bildern ein virtueller Stadtteil so simuliert werden, dass unterschiedliche Gestaltungsansätze getestet werden können. Durch die partizipativen Ansätze kann auch die Akzeptanz der Bevölkerung steigen, indem die Menschen, die in dem Stadtteil leben, vorab bestimmte Varianten testen und erleben können. Dadurch könnten künftig Planungen beschleunigt und Entscheidungen erleichtert werden. Die Kombination aus technischen und sozial-integrativen Ansätzen bietet in der Zukunft einen deutlichen Mehrwert für alle Beteiligten. Heute fehle es aber noch häufig an der Einsicht in der Politik auch entsprechende finanzielle Mittel auch für unkonventionelle Forschungsansätze bereitzustellen, wie Kipke bedauert und damit auf Zustimmung seiner Kolleginnen und Kollegen trifft. Denn für viele Ausschreibungen seien solche Ansätze noch zu umfassend. Dabei finden sich schon heute zahlreiche Anwendungen: In der Inklusion, der Nachhaltigkeit und der Mitbestimmung, etwa bei der Revolutionierung des öffentlichen Verkehrs.

 

An dem Projekt arbeiten innerhalb der TH Nürnberg mit:
Prof. Dr. Timo Götzelmann
Julian Kreimeier, NCT, Ambient Intelligence
Prof. Dr. Harald Kipke
Daniela Ullmann, NCT, Intelligente Verkehrsplanung
Prof. Dr. Frank Ebinger, NCT, Nachhaltigkeitsorientiertes Innovations- und Transformationsmanagement
Prof. Dr. Wolfram Stephan
Florian Büttner, Institut für Energie und Gebäude


Externe Partner:
Behindertenrat und Bildungszentrum für Blinde und Sehbehinderte (BBS), Nürnberg
Verkehrsplanungsamt, Stadt Fürth


Dieses Projekt wird unterstützt durch LEONARDO – Zentrum für Kreativität und Innovation, eine Kooperation der Technischen Hochschule Nürnberg, der Akademie der Bildenden Künste Nürnberg und der Hochschule für Musik Nürnberg.
LEONARDO wird finanziert über das Bund-Länder-Programm Innovative Hochschule.

Zurück
Anfahrt