Kategorie Innovation & Technologie - 9. April 2017

Augmented Reality als neue Medienkultur

Wien/Graz – Anprobieren, dann in den Spiegel schauen. Die Rituale, die bisher dem Kauf eines Pullovers vorausgingen, könnten bald auf den Kopf gestellt werden. Künftig wird man sich im Geschäft zuerst vor den Spiegel – vulgo Riesendisplay – stellen, wo das Bild des Kunden nach Belieben und entsprechend der individuellen Statur mit virtuellen Kleidungsstücken überblendet wird. So werden flugs dutzende Kombinationen durchprobiert. Nur mehr in die besten Stücke schlüpft man dann auch wirklich hinein.

Stefan Hauswiesner arbeitet mit seinem Grazer Unternehmen Reactive Reality an einem derartigen System. „Jeder kann am Smartphone Outfits zusammenstellen, sie virtuell anprobieren oder Stars damit ankleiden. Man kann sich vor beliebige Hintergründe versetzen und die Kombinationen mit anderen teilen“, so die Vision des Gründers, dessen Start-up unter anderem die Förderagentur AWS unterstützt.

„Vermischte Realitäten“

Natürlich ist das Prinzip nicht auf Kleidung beschränkt. „Man wird sich im Strandoutfit an einen Urlaubsort platzieren oder sich in den Lieblingsfilm hineinprojizieren“, so Hauswiesner. Die sozialen Medien werden von ganz neuen Inhalten geprägt sein. Und die PR-Branche wird ein neues Werkzeug haben, um Kleidung, Filme oder Hotels zu bewerben.

Techniken, die Aufnahmen oder Blickfelder mit virtuellen Inhalten anreichern, fasst der Begriff Augmented Reality zusammen. Dieter Schmalstieg, Leiter des Instituts für Maschinelles Sehen und Darstellen der TU Graz – hier forschte auch Reactive-Reality-Gründer Hauswiesner -, sieht mit den Produkten der „vermischten Realitäten“ ein neues Medium entstehen, ähnlich wie einst die Fotografie oder den Film.

„Die ersten Filme waren verfilmte Theaterstücke, weil noch keine eigenen künstlerischen Konventionen vorhanden waren. Auch in der Augmented Reality muss sich eine eigene Medienkultur erst etablieren“, sagt Schmalstieg, der auch am Wiener Zentrum für Virtual Reality und Visualisierung (VRVis) tätig ist. Fix ist: Die neuen Bildanalysetools werden es einfach machen, diese Medien zu erschaffen. Jeder User wird potenziell zum Mixed-Reality-Künstler.

Maschinelles Lernen

Die Werkzeuge selbst zu erschaffen, ist dagegen weniger einfach. Die Algorithmen, die etwa Hauswiesner und Kollegen für die virtuelle Umkleidekabine mithilfe von Machine-Learning-Techniken entwickeln, extrahieren die individuellen Geometrien einer Person aus dem Bild und schneiden sie pixelgenau aus dem Hintergrund. Die Darstellungen von Kleidungsstücken werden auf ähnliche Art analysiert, verformt und auf die Körpergeometrien übertragen.

Schon jetzt deutet eine Reihe einfacher Anwendungen auf die kommende Ära der „angereicherten Realitäten“ hin: In TV-Übertragungen werden bei Sportlern entsprechend positionierte Zusatzinfos eingeblendet. Autoparkassistenten reichern Videobilder mit hilfreichen Anweisungen an. Smartphone-Apps bieten Übersetzungen, wenn man sie auf fremdsprachige Texte richtet, oder sie verfremden dank Gesichtserkennungsalgorithmen das aufgenommene Antlitz in comichafter Weise.

Microsofts Hololens

Einen nächsten Evolutionsschritt soll das Nutzbarmachen von Datenbrillen für alltägliche Anwendungen bringen. Microsofts Hololens, die Entwicklern bereits zur Verfügung steht, ist etwa mit Sensorik und Displaytechnik ausgestattet, um 3-D-Darstellungen mit hoher Genauigkeit ins Blickfeld einzublenden. Bis Echtzeitnavigationsdaten punktgenau und alltagstauglich im Brillenglas erscheinen, bis die Waschmaschine durch virtuelle Datenbrillenmenüs gesteuert werden kann, ist allerdings noch eine lange Liste von Problemen zu meistern, betont Schmalstieg.

Das Gesichtsfeld der Datenbrillen ist eng, die unterbringbare Rechenleistung begrenzt. Die Sensorik kann zwar ein 3-D-Bild der Umgebung erfassen, um sie interpretieren zu können, wird aber eine schnelle Datenverbindung zu Onlinediensten – oder deutlich mehr Rechenleistung – benötigt, zählt Schmalstieg Probleme auf.

Nicht zuletzt ist auch der hohe Preis der Technologie noch ein Hemmschuh für Heimanwendungen. Im Kontext der vernetzten Produktion einer Industrie 4.0 gewinnen Augmented-Reality-Applikationen dagegen bereits an Relevanz und geben etwa kontextbezogen Anlagen- oder Wartungsinformationen auf Tablets aus. Schmalstieg und Kollegen starten gerade ein Projekt für virtuelle Zusammenarbeit, die im Industrieumfeld nutzbar ist. „Dabei kann etwa ein Experte aus der Distanz durch die Augen eines Facharbeiters blicken und mit einem übermittelten 3-D-Modell einer Anlage interagieren. Für den Facharbeiter könnte der Experte durch einen Avatar oder auch nur eine virtuelle Hand repräsentiert werden“, erläutert der Wissenschafter.

Fotos von kritischen Infrastrukturen

Augmented-Reality-Anwendungen, die auch ohne Server- oder Cloudverbindung auskommen, ermöglicht dagegen Ar4.io, wie Reactive Reality ein Unternehmens-Spin-off der TU Graz. Gründer Clemens Arth entwickelt mit seinem Team Algorithmen, die Bildstrukturen auf Basis einer platzsparenden Datenbank erkennen, die auf einem mobilen Gerät vorhanden ist. Im industriellen Umfeld könnte das System etwa von Wartungsarbeitern eingesetzt werden, um gezielt Informationen zu kritischen Infrastrukturen abzufragen, von denen man keine Fotos durchs Netz schicken will.

Augmented Reality wird im Zentrum vieler Spielarten von Mensch-Maschinen-Kommunikation am Arbeitsplatz stehen. Am Software Competence Center Hagenberg (SCCH) in Oberösterreich arbeiten Thomas Ziebermayr und Kollegen beispielsweise an einem Assistenzsystem, das einem Facharbeiter Informationen für komplexe Schweißarbeiten zur Verfügung stellt. Daten zu verwendeten Blechen oder Einstellungen am Schweißgerät können eingeblendet und die passenden Parameter durch den Arbeiter auch gleich über die Datenbrille eingestellt werden.

Röntgenblick

Eine besondere Idee, die schon lange mit Augmented Reality verbunden ist, wurde von Schmalstiegs Gruppe auf spezielle Weise umgesetzt: ein „Röntgenblick“, der Menschen durch Wände hindurchschauen lässt. Die Forscher statteten dabei eine Drohne mit 3-D-Sensorik aus, die ihre Daten an eine Datenbrille übermittelt. Schmalstieg: „Die Drohne scannt ihre Umgebung. Aus den Daten wird errechnet, wie die Raumgeometrie aus der Perspektive des Datenbrillenträgers aussieht, und dann auf diese Weise dargestellt. Es sieht dann aus, als würde man durch ein Loch in der Wand schauen.“ (Alois Pumhösel, 9.4.2017)