Laufende Projekte

AAmI-VR: Applicability of Ambient Intelligence Approaches in Virtual Reality

Ambient Intelligence (AmI) beschreibt Ansätze, in denen eine intelligente, vernetzte und in die Umgebung eingebettete Sensorik auf die Anwesenheit von Personen reagiert und sie mithilfe von Methoden der künstlichen Intelligenz unterstützt. Im Rahmen des Projektes „AAmI-VR“ werden Gebäude und urbane Umgebungen in der Virtuellen Realität (VR) modelliert, um aus der entsprechenden VR-Simulation Erkenntnisse aus der Interaktion von Benutzenden abzuleiten.

Zur Erkennung entsprechender Muster werden Methoden des maschinellen Lernens genutzt. Dabei  werden intelligente Sensorknoten verwendet (Edge-Computing) um autarke Systeme zu implementieren, welche gleichzeitig die Privatsphäre der Personen berücksichtigen können. Die Umgebung soll dabei differenziert auf verschiedene Personengruppen eingehen. Es können somit bauliche Alternativen und die unterschiedlichen Wirkungen untersucht werden, um ohne zeit- und ressourcenaufwändige Baumaßnahmen bzw. Feldversuche Erkenntnisse für die niederschwellige und adaptive Unterstützung von Menschen in der realen Situation abzuleiten.

In diesem Projekt werden konkret zwei Prototypen eines Benutzer-adaptiven Informations- und Orientierungssystems jeweils für den Indoor und Outdoor Bereich entwickelt. Die Entwicklung und Umsetzung erfolgt gemeinsam mit Interessensvertretern (z.B. Behindertenrat Stadt Nürnberg, Verkehrsplanungsamt Stadt Fürth, Bluepingu e.V.) am Beispiel von zwei Anwendungsfällen:

  • Barrierefreie, multimodale Informationsstation in der neuen Bibliothek der TH Nürnberg (Indoor)
  • Adaptive Schnelligkeitsempfehlung für Radfahrer zur Unterstützung einer grünen Welle auf einem Streckenabschnitt der Fürther Innenstadt (Outdoor)

Ziel des Projektes ist die Entwicklung eines neuartigen Simulations- und Planungswerkzeugs um nachhaltige und inklusive Konzepte für eine Smart City zu schaffen.

 

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Prof. Dr. Wolfram Stephan, Prof. Dr. Harald Kipke, Prof. Dr. Frank Ebinger, Julian Kreimeier, Florian Büttner, Michael Buschbacher 

Fördersumme (lt. Zuwendungsschreiben): 95.259,00 Euro

 

Laufzeit: Mai 2020 - Dezember 2021

gefördert von LEONARDO - Zentrum für Kreativität und Innovation im Rahmen des
BMBF Förderprojektes "Innovative Hochschule", Förderkennzeichen 031HS098A

Motion Sickness Exercise

MOTION SICKNESS EXERCISE nimmt die Schwachstelle der Virtual-Reality-Technologie zum Anlass, körperliche Zustände zu verhandeln: sickness – wellness – madness. Ein Problem, das in VR im Zusammenhang mit Bewegung auftritt, ist eine Form von Schwindelgefühl, die durch eine Diskrepanz zwischen der Bewegung des eigenen Körpers und der visualisierten Umgebung entsteht. Die Nutzung von Virtual Reality soll in dieser künstlerisch geleiteten Untersuchung dazu verwendet werden, den menschlichen Körper über die Grenzen normativer Denkweisen hinaus zu führen.

In einer Gesellschaft, die auf kontinuierlichen Fortschritt baut, soll die konventionelle Auffassung von Körpern hinterfragt werden. MOTION SICKNESS EXERCISE erkundet Bewegung und Mobilität im Sinne einer funktionalen Diversität.* Es wird eine Steuerung entwickelt, die Bewegung im virtuellen Raum durch den Atem lenkt. Anhand von verschiedenen Übungen wird Wissenserweiterung durch den Körper als Innovationsform erprobt. In diesem Übungsformat der Künstlerin Angela Stiegler in Zusammenarbeit mit Shila Rastizadeh, Prof. Dr. Timo Götzelmann, Prof. Susanne Kühn und in Kooperation mit dem Museum Brandhorst wird das Potential von Gefühlen des Schwindels erforscht.

Projektbeteiligte:

  • Angela Stiegler

    Akademie der Bildenden Künste Nürnberg, Künstlerische Mitarbeiterin, Projektleitung

  • Shila Rastizadeh

    Technische Hochschule Nürnberg, Fakultät Elektro- und Feinwerkmechanik, Wissenschaftliche Hilfskraft

  • <link person goetzelmann-timo _blank project-actors__link>

    Prof. Dr. Timo Götzelmann

    Nuremberg Campus of Technology, Forschungsprofessur Ambient Intelligence

  • Prof. Susanne Kühn

    Akademie der Bildenden Künste Nürnberg, Freie Malerei

Fördersumme (lt. Zuwendungsschreiben): 35.808,32 Euro

 

Laufzeit: Juli 2021 - August 2022

gefördert von LEONARDO - Zentrum für Kreativität und Innovation im Rahmen des
BMBF Förderprojektes "Innovative Hochschule", Förderkennzeichen 031HS098A

Promotionsprojekte

Virtual Reality zur Unterstützung blinder und sehbeeinträchtigter Menschen

Kooperative Promotion im Kontext Mensch-Computer Interaktion und Barrierefreiheit

Kooperation mit der Professur für Mensch-Computer Interaktion der Technischen Universität Dresden

 

Inhalt:

Obwohl zunächst nicht offensichtlich, stellt Virtual Reality für blinde und sehbeeinträchtigte Menschen eine vielversprechende Möglichkeit hin zu einem niederschwelligerem und informationsreicherem Zugang zu räumlichen Informationen dar.

Der selbstbestimmte Zugang zu räumlichen Informationen ist für blinde und sehbehinderte Menschen bedeutend schwieriger als für sehende Menschen. Um unbekannte räumliche Objekte zu ertasten und zu verstehen oder um unbekannte Gebäude für die Routenplanung vorab kennen zu lernen, müssen physische Modelle wie Karten oder Miniaturmodelle Modelle zur Verfügung gestellt oder speziell angefertigt werden. Wenn z. B. die physische Umgebung nicht gemeinsam mit einem sehenden Assistenten erkundet werden kann, werden häufig statische taktile Karten verwendet, deren Nutzen kaum Interaktionsmöglichkeiten (z.B. kontextuelle Sprachausgabe bei Berührung) bieten. Auch haben solch physische Modelle Limitationen, wie etwa Produktionskosten, -zeit und einen begrenzten Informationsgehalt, z. B. die begrenzte Auflösung einer taktilen Karte oder der feste Maßstab eines 3D-gedruckten Objekts. Darüber hinaus sind reale Umgebungen und sehende Assistenten nicht immer frei verfügbar und bergen Gefahren, was die Unabhängigkeit blinder und sehbehinderter Menschen einschränkt.

Im Rahmen der Promotion sollen technologische Schnittstellen und Interaktionsansätze von VR in diesem Kontext analysiert und hin zu einem partizipativen Einsatz evaluiert werden.

 

Promotionsverfahren Beteiligte:

  • Julian Kreimeier (Promovend, TH Nürnberg)
  • Prof. Dr. Timo Götzelmann (Promotionsbetreuer TH Nürnberg)
  • Prof. Dr. Gerhard Weber (Promotionsbetreuer TU Dresden)

Abgeschlossene Projekte

BIMVIP – Building Information Modelling for Visually Impaired People

Die eigenständige Navigation in unbekannten Umgebungen stellt speziell für blinde und sehbeeinträchtigte Menschen eine große Herausforderung dar. Das Projekt soll demonstrieren, wie unbekannte Gebäude gefahrlos und eigenständig vorab durch den Einsatz von Virtual Reality (VR) und Laufband-Tretmühlen begangen werden können. Für viele Neubauten erfolgt die Planung in Form von 3D-BIM-Modellen. Die Daten dieser Modelle erlauben eine bessere Nutzung im Hinblick auf Barrierefreiheit. 


Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Prof. Dr.-Ing. Wolfram Stephan, Julian Kreimeier, Florian Büttner, Michael Buschbacher

Hochschule(n): Technische Hochschule Nürnberg, Fakultäten Informatik, Maschinenbau und Versorgungstechnik, Bauingenieurwesen, Institut ieg

Fördersumme (lt. Zuwendungsschreiben): 24.520,00 Euro

 

Laufzeit: März 2019 - Dezember 2019

gefördert von LEONARDO - Zentrum für Kreativität und Innovation im Rahmen des
BMBF Förderprojektes "Innovative Hochschule", Förderkennzeichen 031HS098A

CoPAH-VR (Comparison of Passive and Active Haptics in Virtual Reality)

Dieses Lehrforschungsprojekt untersucht, wie sich die Art des haptischen Feedbacks auf die Gebrauchstauglichkeit einer virtuellen Umgebung auswirkt. Das Projektteam besteht aus dem Antragsteller und vier Studierenden aus dem Bachelorstudiengang Informatik (3. Fachsemester). Nachdem die Studierenden relevante Inhalte aus den einschlägigen Lehrveranstaltungen wiederholt haben, wurden gemeinsam Forschungsfragen definiert und Möglichkeiten zur praktischen Beantwortung derer besprochen. Auf dieser Basis wurden Software-Prototypen entwickelt um in mehreren Szenarien die Fragestellungen zu untersuchen. Dabei werden drei verschiedene virtuelle Szenen mit unterschiedlichen Interaktionsmöglichkeiten untersucht.

Diese werden nun durch Benutzerstudien evaluiert und mit Hilfe des Antragstellers ausgewertet. Die Resultate dieser Auswertung werden dann gemeinsam besprochen und die Möglichkeit der Veröffentlichung auf einer einschlägigen, wissenschaftlichen Konferenz abgeschätzt, sodass die Studierenden neben der Erstellung auch Einblick in die Verwertung von Forschungsergebnissen haben.

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Jonas Wluka, Christina Wäger, Georgi Yakov, Valtteri Saino, Petar Yakov

Fördersumme (lt. Zuwendungsschreiben): 6.600,00 Euro

 

Laufzeit: März 2018 - Dezember 2018

gefördert im Rahmen des Programms "Lehrforschung - forschendes Lernen 2019"

N-ERGIE Harvester: Autarke Energieversorgung moderner IoT-Microcontroller durch Körperabwärme

 

Das Internet der Dinge (IoT) entwickelt sich rasch und verfolgt das Ziel physische Gegebenheiten mit der virtuellen Welt zu vernetzen. Im Gegensatz zu Computern oder Smartphones soll es dabei soll es den Menschen unmerklich unterstützen – die Technologie tritt in den Hintergrund. Eingesetzt werden dabei kleine, multifunktionale Recheneinheiten wie der populäre IoT-Mikrocontroller ESP32. Diese fingernagelgroßen Chips beinhalten nebst Prozessoren auch vielerlei Kommunikations­schnittstellen für Bluetooth und WLAN. Mit geringem Aufwand kann dabei eine vielfältige Sensorik angeschlossen werden.

Zwar ist der Energieverbrauch dieser kleinen Einheiten gering, jedoch wird dennoch eine Energiequelle benötigt. Es zeichnen sich jedoch Alternativen zu endlichen Energiequellen ab. Mittels spezieller Schaltkreisen können kleinste Energiemengen kontinuierlich gesammelt werden (sog. Energy-Harvesting) und diese Energie gezielt dafür verwendet werden, in definierten Zeitabständen Messungen vorzunehmen und diese zu publizieren (z.B. per Display oder Internet). Als Energiequelle soll bei diesem Projekt die immerwährende Körperabwärme des Menschen dienen, die mit speziellen elektrothermischen Wandlern (Peltier-Elementen) den Mikrocontroller mit Energie versorgen kann.

Ziel des Projektes war es, einen lauffähigen Prototypen zu erstellen, welche in Kleidung (Smart Clothes) integriert werden kann. Idealerweise soll ein T-Shirt entstehen, welches folgenden Komponenten integriert: Peltier-Elemente (thermoelektrische Wandlung), Harvestingmodul (sammeln von Energie), Zwischenspeicher, Mikrocontroller, Low-Energy Display.

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: NERGIE AG, Michael Ganz, Darell Parker (TH Nürnberg)

Fördersumme (lt. Zuwendungsschreiben): 4.000,00 Euro

 

Laufzeit: November 2018 - Februar 2020

gefördert durch die NERGIE AG, Nürnberg

HaFeVAR (Haptic Feedback in Virtual and Augmented Reality)

Dieses Lehrforschungsprojekt ...

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Pascal Karg, Daniel Friedmann, Sebastian Hammer, Clemens Bühner, Lukas Bankel

Fördersumme (lt. Zuwendungsschreiben): 7.250,00 Euro

 

Laufzeit: März 2018 - Dezember 2018

gefördert im Rahmen des Programms "Lehrforschung - forschendes Lernen 2018"

Blind3DSupport (3D-Druck mit löslichen Stützstrukturen für blinde Menschen)

Dieses Lehrforschungsprojekt ...

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Lisa Branz, Markus Otto, Claudia Heidenreich, Christoph Huxhagen

Fördersumme (lt. Zuwendungsschreiben): 3.750,00 Euro

 

Laufzeit: März 2015 - Dezember 2015

gefördert im Rahmen des Programms "Lehrforschung - forschendes Lernen 2015"

Blind3DComp (Taktile Karten für blinde Menschen mit 3D-Druckern)

Dieses Lehrforschungsprojekt ...

 

Projektleiter: Prof. Dr. Timo Götzelmann

Projektbeteiligte: Bildungszentrum für blinde und Sehbehinderte Nürnberg (BBS),

Fördersumme (lt. Zuwendungsschreiben): 4.250,00 Euro

 

Laufzeit: März 2014 - Dezember 2014

gefördert im Rahmen des Programms "Lehrforschung - forschendes Lernen 2014"