Wie wird das fahrerlose Shuttle von morgen aussehen? Mit Virtual Reality lassen sich mögliche Konzepte schnell visualisieren. Das hilft bei der Entwicklung neuer Fahrzeugkonzepte. Im Cockpit hilft sogar heute schon verwandte Technologien wie AR.

Schon in naher Zukunft werden neue Fahrzeugarten das Straßenbild prägen. Eine Mischung aus Individualfahrzeugen und fahrerlosen elektrischen Fahrzeugen wird vorrangig in den Ballungsräumen mehr Effizienz, weniger innerstädtische Abgase und eine Entspannung bei der notorischen Parkraumnot bringen.

Individualfahrzeuge nach heutigem Grundmuster können in diesem neuen Mix sowohl vom Menschen manuell gesteuert werden als auch automatisiert unterwegs sein. Damit entsteht eine Vielfalt möglicher neuer Verkehrssituationen, die neue technische Grundlagen erfordern. Eine ganz wesentliche Rolle wird zum Beispiel die Kommunikation des Fahrers mit seinem Fahrzeug spielen, weil künftige Fahrzeuge viel mehr „können“ und damit auch viel mehr Verantwortung übernehmen. Automatisierte Fahrzeuge brauchen Verständigungsmöglichkeiten untereinander und müssen genauso in der Lage sein, mit Fußgängern zu kommunizieren, ohne dass der Mensch im Fahrzeug daran beteiligt ist. Idealerweise muss jeder vom anderen wissen, was er gerade macht oder plant, wenn die Verantwortung dafür mal beim Menschen und mal bei der Maschine liegt.

Angesichts dieser neuen Fähigkeiten verändert sich das Auto stark, um die Anforderungen an künftige Interaktionskonzepte zu erfüllen und die sichere Kommunikation zwischen automatisierten Fahrzeugen und ungeschützten Verkehrsteilnehmern (Vulnerable Road Users) zu gewährleisten. So entsteht ein echter Dialog zwischen Mensch und Maschine. Der Innenraum eines selbstfahrenden Fahrzeugs wird nur dann für die Menschen optimal nutzbar, wenn das Innenraumkonzept auch sinnvolle Beschäftigungen während einer automatisierten Fahrt unterstützt. Beispielsweise sollten sich die Passagiere einander zuwenden können, um sich entspannt zu unterhalten. Noch größer ist der Umbruch beim Innenraumkonzept im Fall eines komplett fahrerlosen Fahrzeugs. Hier kann das heutige Sitzkonzept im Pkw vollständig aufgebrochen werden und es entsteht wahlweise die Anmutung eines kompakten Minibusses oder eines autonomen Kleinfahrzeugs mit Schwarmverhalten – wie beim Mobilitätskonzept BEE von Continental.

Mobilitätskonzepte mit VR erlebbar machen

BEE (engl. für Biene und Abkürzung für „Balanced Economy and Ecology Mobility Concept“) ist ein autonomes, elektrisch angetriebenes Fahrzeug für bis zu zwei Erwachsene, das wahlweise auch Lasten transportieren kann. Gerufen wird die BEE per Smartphone-App. Um die völlig neuen Möglichkeiten der Mobilität mit der „fleißigen Stadtbiene“ zu verdeutlichen, hat Continental Virtual-Reality-Technologie genutzt, um die BEE heute schon in einer Stadt von morgen fahren zu lassen. VR hilft, sich vorzustellen und zu erleben, was morgen den Alltag erleichtert: Die Fensterscheiben können innen wie außen als Informationsbildschirme dienen, sodass man sich von BEE zu BEE unterhalten kann, als säße man nebeneinander. Oder die Scheiben sind zum Hinaussehen einfach völlig transparent. Für einen Rollstuhlfahrer öffnet BEE die Fronttür weit und geht zudem noch so tief „in die Knie“, dass er oder sie barrierefrei an Bord kommen kann. Für ältere Fahrgäste stellt BEE zum Platznehmen den Stuhl in die Tür. Dank Schwarmfähigkeit können Freunde in einem Konvoi digital vernetzter BEEs in die Stadt fahren. Die zu 3D-Bildschirmen verwandelten Fenster lassen vergessen, dass die Freunde in verschiedenen BEEs unterwegs sind, während sie miteinander plaudern. Solche Konzepte sind heute noch erklärungsbedürftig. VR hilft, ihr Potenzial zu verstehen und ihre Nutzung zu planen.

Man sieht nur, was man erklärt bekommt…

Methoden der ergänzten oder unterstützten Realität (Augmented Reality, AR) dienen hingegen dazu, die heutige Ebene der Interpretation unkommentierter Umgebungsbilder durch den Fahrer um eine Ebene der Erklärung des Gesehenen zu ergänzen. Frei nach dem Motto „What you see, is what you need (to see)“ sieht man nur, was man gerade erklärt bekommt. So können optische Hervorhebungen in einem Anzeigesystem wie dem Augmented-Reality-Head-up-Display (AR-HUD) von Continental einem Autofahrer sichtbar machen, wie groß der eingestellte Abstand der adaptiven Geschwindigkeitsregelung zum nächsten Fahrzeug ist oder Navigationsanweisungen direkt auf die Straße legen. Auch beim automatisierten Fahren kann Augmented Reality helfen, indem sie dem Nutzer vermittelt, welche Fahrmanöver das automatisierte Fahrzeug plant und ausführt. Das Besondere an den optischen Einfügungen in die Realität liegt darin, dass sie unmittelbar zu verstehen sind und unmissverständliche Handlungsangebote machen. So kann das AR-HUD mit einem in die Umwelt projizierten Anhalteweg dem Fahrer bei Nässe auf der Straße klar machen, dass sein Bremsweg länger wird und dass es sicherer wäre, langsamer zu fahren.

So entstehen mit dem AR-HUD neue Möglichkeiten, die speziell die Gestaltung des Fahrzeug-Cockpits flexibler und leistungsfähiger machen können. Gleichzeitig gilt es, diese neuen Kommunikationswege und -formen zu erproben. Autofahrer benötigen die Möglichkeit, solche Konzepte zu testen, technische Entscheider, die derlei Konzepte entwickeln, ebenfalls. Und ein Automobilhersteller, der sie für ein Fahrzeugmodell einkaufen will, braucht die Gewissheit, dass hier echter Mehrwert entsteht. Dabei gilt es auch, den „Faktor Mensch“ zu erforschen. Für neue Fahrzeug-, Mobilitäts- und Interaktionskonzepte ist es wichtig zu ergründen, welche Konzepte unter Berücksichtigung von Nutzerzustand und des Nutzungskontexts die Anforderungen aus Anwendersicht optimal erfüllen – zum Beispiel, indem sie Vertrauen für automatisiertes Fahren schaffen oder das Situationsbewusstsein erhöhen.

Wissenschaftlich gesehen geht es darum, die Leistung des Menschen an der Schnittstelle zum Fahrzeug zu unterstützen, das Nutzererlebnis zu erhöhen sowie Bedien- und Entscheidungsfehler zu verringern, ohne eine Mehrbelastung zu verursachen. Im Gegenteil: Der Fahrer soll leichter verstehen, warum er einen Vorteil davon hat, bestimmte Entscheidungen über die Längs- und Querdynamik seines Fahrzeugs zu fällen – oder auch, warum sein automatisiertes Fahrzeug diese Entscheidung gerade autonom fällt. Denn nichts ist schlimmer für einen Fahrer als die Kontrolle über sein Fahrzeug abzugeben, ohne ausreichendes Vertrauen in die Fahrzeugfähigkeiten zu haben. AR mit ihren erklärenden Hinweisen bestätigt dem Fahrer, dass sein Fahrzeug „weiß“, was es tut. Auch hier gilt: Die visuellen Hinweise in der realen Welt machen aus Information Verständnis.

Der Mensch betritt die Welt der Simulation

Angesichts der immens wachsenden Gestaltungsmöglichkeiten und der neuen Interaktionswege zwischen Mensch und Maschine ist es sinnvoll, frühzeitig herauszufinden, was am besten funktioniert. Augmented Reality dient dazu, neue Wege für diese Interaktion anzubieten und dem Fahrer das Fahren zu erleichtern. Gleichzeitig können Entwickler AR flexibel gestalten, indem sie neue Formen für die Einbindung hilfreicher Hinweise in die reale Welt entwerfen. VR wiederum hat ihre Stärke dort, wo es gilt, solche neuen Konzepte in einer komplett wirklichkeitsgetreuen 360°-Umgebung zu erproben. Deshalb entwickelt Continental ein VR-Ergonomie-Labor (VLab), in dem Verkehrssituationen einschließlich der Interaktion mit Fußgängern flexibel erprobt werden können. Im Unterschied zu dem weiterhin genutzten modernen Fahrsimulator mit Fahrzeug-Mockup können die Szenarien des VLab realistischer und immersiv gestaltet werden, dem Nutzer also das „Eintauchen“ in die virtuelle Welt erlauben. Darüber hinaus können auch mehrere Personen gleichzeitig in der VR sein und dort interagieren.

Neue Fahrzeug- und Cockpitkonzepte mit modernen Interaktionselementen lassen sich dank VR lange vor den ersten Prototypen programmieren und in einer wirklichkeitsgetreuen Welt testen. Damit steigt die Reife der entwickelten Produkte trotz der enormen Zunahme an Variablen und Alternativen. Der Mensch bekommt einen Zugang zur Simulation und kann sich darin bewegen wie in der richtigen Welt – allerdings frei von Risiko. Wird dabei an einem technischen System ein Änderungsbedarf erkannt, so kann dieses verhältnismäßig schnell angepasst werden. Diese frühe Konzentration auf das Erlebnis des Nutzers – die User Experience (UX) – führt dazu, dass neue Produkte in frühen, schnellen und nutzergerechten Iterationen reifen. Das zugrunde liegende Prinzip ist das einer agilen Entwicklung, bei der schon in der Entstehung befindliche Produkte früh getestet werden. Die dabei gewonnenen Erkenntnisse fließen sofort zurück in den Entwicklungsprozess und erlauben eine Neuprogrammierung von einzelnen Bestandteilen der virtuellen Welt zu einem Zeitpunkt, wo Änderungen noch ausgesprochen wirtschaftlich sind.

Von der Vision zur (augmentierten) Realität

Es liegt in der Natur der Sache, dass neue Interaktionskonzepte zunächst einmal erlernt werden müssen. Das betrifft auch die Entwickler selbst, die hier ja Neuland betreten und ihre neuen Mittel und Wege verstehbar und erlebbar machen wollen. Mit Methoden der VR geht dies wesentlich besser als über abstrakte Beschreibungen oder starre Bilder. Die Arbeitsteilung zwischen VR und AR ist demnach eine sukzessive beziehungsweise zyklisch interagierende: VR dient dazu, neue Gestaltungen, Produkte und Kommunikationsformen frühzeitig zu erproben und weiter zu entwickeln. AR im Automobil ist ein Teil des für den Nutzer sichtbaren Ergebnisses dieser Erprobung in der virtuellen Welt.

In der Produktion hat AR ihr Anwendungsgebiet beispielsweise dort, wo Umrüst- oder Wartungsarbeiten an Maschinen und Anlagen vorgenommen werden müssen. Der Werker kann hier Schritt für Schritt durch eine Tätigkeit geführt werden, die ansonsten – etwa wegen mangelnder Routine oder hoher Komplexität – ein erhöhtes Fehlerrisiko mit sich bringt. Die eingeblendeten Inhalte in einer AR-Brille dagegen zeigen dem Werker, wann er welchen Handgriff machen muss und welches Werkzeug oder Ersatzteil er dafür benötigt.

Bei Continental ist diese weltweite Unterstützungsmöglichkeit in zwei Pilotsystemen umgesetzt. Durch die sichere Verbindung von Smart Glasses mit einer Desktop-Anwendung kann der Experte durch die Augen seines Kollegen das Arbeitsfeld sehen und durch das Einspielen von Inhalten in dessen Sichtfeld die Tätigkeit vor Ort unterstützen. Zur Kommunikation mit dem Desktop Client gehören neben der Augmentierung auch eine Sprach- und eine Videoverbindung. Über die AR-Brille können Bilder, Schaltpläne oder Nachrichten im Sichtfeld des Brillenträgers eingeblendet werden. Eine Korrelation dieser Einblendungen zur Realwelt, also die Verankerung des virtuellen Informationsobjekts in der Darstellung des realen Raums, wird gerade pilotiert.

Im Continental-Werk in Regensburg wird parallel dazu das Thema Virtual Reality evaluiert. Dort geht es um eine sogenannte VR-Cave, also einen Raum zur Projektion einer 3D-Welt, die eventuell bei der Linienplanung und für Ergonomieuntersuchungen herangezogen werden könnte. Bereits im Jahr 2016 wurde erstmals ein Fertigungsbereich dreidimensional erfasst und damit eine Punktewolke und Rundum-Fotos erzeugt. Das Ergebnis ist eine virtuell begehbare Karte einer Fertigungshalle. So werden virtuelle Fertigungsrundgänge möglich, die zum Beispiel bei Schulungen zur Veranschaulichung dienen können.

Autor: Kurt Lehmann

(c)2019
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group