Ingenieur-Informatik goes Venice

Jeder spricht über Inklusion, aber nur wenige packen mit an, um die damit verbundenen Probleme erfolgreich aus der Welt zu schaffen. Am FB-MNI wird Inklusion schon lange auf vielfältige Art und Weise umgesetzt. Nicht zuletzt auch in der Forschung.

So beschäftigt sich die Arbeitsgruppe unseres Doktoranden Florian von Zabiensky mit der Entwicklung eines flexiblen Software-Frameworks mit dessen Hilfe schnell und effizient angepasste Assistenzsysteme für sehbehinderte und blinde Menschen aufgebaut werden können. Ein zentrales Ziel dabei ist, die neuesten Erkenntnisse aus Robotik, autonomen Fahren und KI einzusetzen, um Menschen zu helfen. So kann z.B. die Software eines autonomen Fahrzeuges so abgewandelt werden, dass sie eine blinde Person sicher durch den Stadtverkehr navigiert. Betreut wird die Dissertation von Prof. Diethelm Bienhaus in Kooperation mit Prof. Claude Draude von der Universität Kassel.

Auf der "8th International Conference in Universal Accessibility in the Internet of Things and Smart Environments”, die dieses Jahr vom 24.-28. April in Venedig statt fand, wurden die aktuellen Ergebnisse vorgestellt.

Gruppenbild der Teilnehmer

Die Einreichung “A Framework for Developing Modular Mobility Aids for People with Visual Impairment: An Indoor Navigation Use Case” wurde mit einem Best Paper Award ausgezeichnet und darf nun in einer "extended version" erneut veröffentlicht werden.

Wir gratulieren den Autoren Grigory Fridman, Oguz Özdemir, Sebastian Reuter und natürlich Florian von Zabiensky für den tollen Erfolg und bedanken uns besonders bei den drei Studenten für ihren außergewöhnlichen Einsatz.

Ein besonderer Glückwunsch gilt Grigory Fridman, der die Arbeit auf der Konferenz präsentieren durfte und schon vor Ort besonderes Lob für seinen hervorragenden Vortrag erhielt.
Zusätzlich hat Michael Kreutzer das AHRUS Projekt im Rahmen des zweiten Beitrags “An Audible Handheld Ultra-Sonic-Sonar (AHRUS) to Support Human Echo Location” vorgestellt und vorgeführt. Das kleine Gerät erzeugt einen gebündelten Ultraschall-Strahl, mit dem ein blinder Nutzer seine Umgebung abtasten kann. Durch ein spezielles Modulationsverfahren werden Echos nach ihrer Reflexion an Objekten in Hörschall gewandelt, was den Nutzer zur menschlichen Fledermaus macht. Diese Eigenschaft hat dem Gerät den Spitznamen "akustische Taschenlampe" eingebracht.
AHRUS wurde 2019 auf der "International Conference for Human Computer Interaction" in Las Vegas ausgezeichnet.