Die Interaktion von Mensch und Maschine ist nicht auf Tastatur, Touchscreen oder Sprachsteuerung beschränkt. Innovative Konzepte wie Interactive Skin machen die menschliche Haut zur Eingabeschnittstelle. Gerade für Industrie 4.0 eröffnet dies spannende Möglichkeiten.

Auch wenn es die klassischen Eingabegeräte Keyboard und Maus am Computer weiterhin gibt, haben Nutzer heute eine Vielfalt an weiteren Möglichkeiten, um Endgeräte zu steuern: integrierte Kombinationen aus Tastatur und Maus, neuartige Hardware-Eingabegeräte, Touchscreens und virtuelle Tastaturen, bis hin zur Sprachsteuerung.

Die Verwandlung der Tastatur

Studien, wie beispielsweise die 2018 von ECC Köln und SAP Hybris durchgeführte, zeigen: Sprachsteuerung wird bereits von den meisten Internetnutzern für verschiedene Anwendungen genutzt. Diese Art der Eingabe wird laut der Umfrage vor allem als praktisch, einfach und zeitsparend wahrgenommen. Abzüge erhält die Steuerung durch Spracheingabe allerdings bei der Vertrauenswürdigkeit und Zuverlässigkeit.

Denkt man zum Beispiel an Anwendungen im Bereich Industrie 4.0, sind Zuverlässigkeit und Vertrauenswürdigkeit jedoch besonders relevant. Je nach Anwendung variieren auch die Umgebungsgeräusche, so dass für die Sprachsteuerung am besten Headsets getragen werden sollten.

Dass es auch anders geht, zeigt ein Tastaturersatz, der ohne weitere Geräte auskommt, die man zusätzlich mitführen muss. Anders gesagt: man klebt sich die Geräte einfach auf die Haut und muss kein weiteres Gerät einpacken, wenn man in die Fabrikhalle oder in das Lager geht.

Ergänzung auch für Smartphone und Smartwatch

Doch nicht nur Lagerarbeiter und Maschinenführer könnten die Eingabeschnittstellen verwenden, die wie ein Pflaster auf der Haut angebracht sind. „Bei Mobilgeräten wie etwa der Smartwatch sind die interaktiven Bildschirme so klein, dass man mit der einzelnen Berührung nur wenige Steuerungsbefehle auslösen kann „, erklärte Jürgen Steimle, Professor für Mensch-Maschine-Interaktion an der Universität des Saarlandes.

In einem früheren Forschungsprojekt hatte Steimle gemeinsam mit seinem Mitarbeiter Martin Weigel bereits nachgewiesen, dass sich auch die menschliche Haut für die Eingabe eignet. Während dieser Studie kam ihnen die Idee zu einem neuen Projekt. „Wir fanden heraus, dass unsere Studienteilnehmer nicht nur die bereits bekannten Smartphone-Gesten aus der Haut ausführten, sondern die Haut auch verschoben oder gar mit zwei Fingern zusammendrückten, um so Mobilgeräte zu bedienen“, berichtete Martin Weigel.

Professor Steimle ist überzeugt: „Wenn für die Eingaben nur ein winziger Sensor verformt werden muss, können Geräte an Körperstellen getragen werden, über die eine schnelle und unauffällige Bedienung möglich ist. Dies wird der Industrie dabei helfen, noch kleinere Steuergeräte auf den Markt zu bringen.“

Beispiel Interactive Skin

„Der menschliche Körper bietet eine große Oberfläche an, auf die man schnell zugreifen kann. Das geht sogar ohne Blickkontakt“, so Steimle. Der entwickelte Sensor namens Multi-Touch Skin ähnelt im Aufbau einem Touchdisplay, wie man es von Smartphones kennt. Zwei Elektrodenschichten, jeweils in Spalten und Zeilen angeordnet, bilden, übereinander positioniert, eine Art Koordinatensystem, an dessen Kreuzungspunkten ständig die elektrische Kapazität gemessen wird. Diese verringert sich an der Stelle, an der die Finger den Sensor berühren, da die Finger elektrisch leiten und so die Ladung abfließen lassen.

„Damit wir die Sensoren wirklich an allen Körperstellen nutzen können, mussten wir sie von ihrer rechteckigen Form befreien. Das war ein wichtiger Aspekt“, erklärte Aditya Shekhar Nittala, der in der Gruppe von Jürgen Steimle für seine Doktorarbeit forschte. Die Wissenschaftler entwickelten daher eine Software für Designer, damit diese die Form des Sensors nach Belieben gestalten können.

Für die Saarbrücker Wissenschaftler ist Multi-Touch Skin ein weiterer Beweis, dass die Forschung zu Schnittstellen auf der Haut lohnenswert ist. In Zukunft wollen sie sich darauf konzentrieren, noch fortschrittlichere Designprogramme für die Sensoren bereitzustellen und Sensoren zu entwickeln, die gleich mehrere Sinnesmodalitäten erfassen. Ihre Arbeiten zu Multi-Touch Skin wurden durch den Starting Grant „Interactive Skin“ des Europäischen Forschungsrates (ERC) finanziert.

Beispiel Microsoft Skinput

Ein weiteres Beispiel aus der Forschung: Microsoft Research hatte in der Vergangenheit bereits Skinput vorgestellt: eine Technologie, die die Verwendung der Haut als Eingabefläche untersuchte. Dabei wurde die Position von Fingerschlägen an Arm und Hand ermitteln, indem mechanische Schwingungen analysiert wurden, die sich dadurch im Körper ausbreiten. Diese Signale wurden mit einer neuartigen Reihe von Sensoren eingesammelt, die als Armband getragen wurden. Die Idee hinter diesem Projekt war ebenfalls ein immer verfügbares, portables und am Körper befindliches Fingereingabesystem.

Es zeigt sich: Eingabeschnittstellen nutzen immer wieder neuartige Sensoren und Verfahren, um die Interaktionen von Mensch und Maschine möglichst einfach zu gestalten, um also zum Beispiel auf das Mitführen weiterer Hilfsmittel zu verzichten. Entscheidend ist dabei, dass die Eingaben zuverlässig erkannt werden und die Funktion dauerhaft sichergestellt ist, gerade im Umfeld von Industrie 4.0, wo Nutzereingaben industrielle Abläufe steuern und verändern. Deshalb sind solche Forschungsprojekte wichtig und man kann auf die spätere Einführung in den Markt gespannt sein. Das Projekt InteractiveSkin an der Universität des Saarlandes läuft noch bis Ende 2021.

Autor: Oliver Schonschek

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group