Microsoft HoloLens 2 ausprobiert
So schnell wie bei Smartphones, die mittlerweile mit einer hohen Schlagzahl weiterentwickelt und an den Mann gebracht werden, geht es bei dem galaktisch anmutenden Mixed-Reality-Headset (MR-Headset) nicht: Im Januar 2015 stellte Microsoft die erste HoloLens vor, ganze vier Jahre später die HoloLens 2. Bis das erste Modell zur Auslieferung kam, vergingen gut eineinhalb Jahre, bei der zweiten immerhin nicht mal mehr eins. Auch wenn schon darüber spekuliert wird, wann die Projektion von Bildern in die reale Umgebung zum Alltag gehören wird und in jede normale Brille integriert werden kann: Das wird noch dauern.
Aktuell ist der Anwendungsfokus noch sehr spezifisch. Anders als ein Virtual-Reality-Headset (VR-Headsets), das den Träger visuell in eine vollkommen ferne und irreale Umgebung versetzt, und das vor allem Spiele auf ein besonderes Niveau hebt, vermischt ein MR-Headset das Computerbild mit der realen Umgebung. Anwendungsgebiete finden sich vor allem in der Industrie: Entwicklungsdokumente, Bau- und Schaltpläne, die bislang auf dem Computer oder Tablet liegen, können mit einem MR-Headset direkt auf das Bauteil projiziert werden. Prototypen können als Hologramm im realen Raum platziert, von allen Seiten betrachtet und modifiziert werden.
Bei der HoloLens 2 fällt schon beim Aufsetzen auf: Sie ist angenehmer zu tragen als Ihr kopflastiger Vorgänger. Microsoft hat den Akku nach hinten verlagert und das Gewicht auch insgesamt verringert. Wenn man schon nach wenigen Minuten kaum mehr über sie nachdenkt, liegt das allerdings auch daran, dass die Animationen um einen herum alle Aufmerksamkeit auf sich ziehen.
In der Demo geht es zunächst seicht zu. Ein Hund, der einen mit treuen Augen anschaut, und ein Stück Käse, das plötzlich vor einem auf dem Tisch liegt. Man kann mit der Hand danach greifen, zupacken, es virtuell hochnehmen und woanders wieder ablegen. Damit das funktioniert, arbeitet das Headset mit Tracking-Kameras: Für das so genannte Eye-Tracking wird eine Innenkamera zu Beginn auf die Augenbewegung des Headset-Trägers eingestellt und kalibriert. Eine zweite Kamera ist nach vorn gerichtet und wertet die Handbewegung aus. Wie bei Smartphones, die bei Erkennen einer Geste die Kamera auslösen, steuern auch hier die Hände den Ablauf. Weitgehend unbewusst, durch intuitive Bewegungen.
Zusätzlich gibt es definierte Gesten für die bewusste Steuerung: Die Demo ist darauf programmiert, ein Menü zu öffnen, sobald man die Hand öffnet und flach vor sich hält. Was für Außenstehende dann so aussieht, als würde man mit den Fingern Löcher in die Luft stechen, kommt einem Knopfdruck gleich, nur dass das haptische Feedback fehlt. Die virtuelle Berührung eines Knopfes mit einer realen Fingerspitze liefert aber bereits einen Eindruck davon, wie exakt Realität und Projektion übereinander gebracht werden.
Eine zweite Demo zeigt, wie die Technologie in der Lehre eingesetzt werden kann. Vor dem Betrachter wird ein Herz platziert, um das er nicht nur herumgehen, und es von oben und unten betrachten kann, sondern in das er mit definierten Gesten auch hineinsehen kann. Mit zwei Händen kann man die virtuellen Objekte zusammendrücken und verkleinern und durch Auseinanderziehen vergrößern. Vergrößert man ein Objekt zu stark oder kommt ihm zu nahe, macht sich das begrenzte Sichtfeld durch abgeschnittene Ränder bemerkbar. Und auch die Betrachtung mit etwas Abstand oder wenn man den Kopf dreht fällt anders aus: Was man in der Realität „in den Augenwinkeln“ noch wahrnimmt, verschwindet und muss mitunter erst wieder gesucht werden.
Die Möglichkeiten sind dennoch grandios: Bereits beim Vorgänger gab es eine Demo, in der man virtuell in den Motor eines Rennwagens eintauchen konnte. In solchen Modellen können auch Schrauben justiert und austauscht werden und die daraus resultierenden Veränderungen analysiert werden. Das Ausmaß der Möglichkeiten hängt dabei immer von der Software ab, die jeweils individuell und für zusätzliches Geld entwickelt werden muss. Im Zentrum der Programmierung stehen Microsoft Azure und Microsoft Unity, der Nachfolger des ObjectBuilders.
Für die HoloLens 2 soll es aber auch Out-of-the-Box-Lösungen geben. Eine davon steht offenbar schon parat: Microsoft bietet zur HoloLens 2 die Lizenz-Software Dynamics 365 Remote Assist an, mit der die HoloLens 2 direkt einsetzbar sein soll. Denkbare Szenarien für unspezifische Anwendungen sind beispielsweise Wartungs- und Reparatur-Dienste: Der Kunde bedient die Maschine vor Ort, der Service-Techniker verfolgt den Vorgang in Echtzeit, gibt remote Anweisungen und blendet Schaubilder ein oder was immer für die Wartung oder Behebung einer Störung nötig ist.
Bei den aktuellen Preisen bleibt die HoloLens 2 trotzdem wohl noch eine Weile der Industrie vorbehalten: Das Headset kostet bereits ohne Individual- oder Standard-Software 3.500 US-Dollar.
Quelle(n)
eigene