Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer Flugzeugsteuerung per Fingerzeig: Neue Technik macht Datenhandschuh überflüssig

Flugzeugsteuerung per Fingerzeig: Neue Technik macht Datenhandschuh überflüssig

Archivmeldung vom 16.02.2007

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 16.02.2007 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Markus Schlattmann durchfliegt die Alpen. (c) Frank Luerweg / Uni Bonn
Markus Schlattmann durchfliegt die Alpen. (c) Frank Luerweg / Uni Bonn

Forscher der Universität Bonn haben Computern beigebracht, auf Handbewegungen zu reagieren. Die Methode ist extrem schnell und robust: Sie funktioniert mit Kinderpatschen genauso wie mit Maurerpranken. Das Verfahren könnte die Steuerung von 3D-Anwendungen revolutionieren.

Markus Schlattmann. (c) Frank Luerweg / Uni Bonn
Markus Schlattmann. (c) Frank Luerweg / Uni Bonn

Was stört, ist der rote Kragen. Sonst könnte man Markus Schlattmann mit seinen dunklen Klamotten und der schwarzen Brille für einen der "Men in Black" halten. Vor allem, wenn er wie jetzt seine Hand zur Pistole formt.

Der Informatiker spielt aber nicht etwa "Räuber und Gendarm": Durch einfache Schlenker seiner Hand steuert er ein virtuelles Flugzeug durch die Alpen. Eine lässige Drehung aus dem Handgelenk, schon kippt der Horizont zur Seite. Nun knickt Schlattmann das Handgelenk nach unten. Brav nickt die Flugzeugnase gen Erdboden. Knapp über dem Zugspitzblatt fängt er den Flieger ab. Kurz geht es an schneebedeckten Felswänden entlang, dann zieht er die Maschine wieder steil zur Seite. Bei Zuschauern ohne stabilen Magen kann sich nach mehreren solcher Schwenks eine leichte Übelkeit bemerkbar machen. Was auch an den realistischen dreidimensionalen Bildern des Kooperationspartners RSS GmbH liegen mag. Die 3D-Brille trägt das Ihre zum naturgetreuen Eindruck bei.

"Handtracking" nennen die Mitarbeiter aus der Arbeitsgruppe Computergrafik der Uni Bonn ihr Verfahren: Drei Kameras verfolgen die Stellung der Finger, ein Rechner setzt die Bewegungen in Steuerbefehle um. "Das Ganze geht präzise, schnell und intuitiv", sagt Schlattmann. Er legt den Daumen auf den Zeigefinger; auf dem Projektionsschirm materialisieren sich ein paar zusätzliche Symbole. Der Informatiker klickt mit seinem Zeigefinger auf ein Kreuz, und das Fenster mit der Alpenlandschaft verschwindet. Die Leinwand wird schwarz: Demonstration beendet.

Grafikkarte übernimmt das Rechnen

"Das Besondere an unserem Verfahren ist, dass wir ohne externe Hilfsmittel auskommen", erklärt Schlattmanns Kollege Ferenc Kahlesz: "Um Handbewegungen in Echtzeit mit großer Genauigkeit verfolgen zu können, muss man normalerweise zumindest die Finger farblich markieren, damit sich die Software leichter orientieren kann. Oder man braucht dazu einen Datenhandschuh, der die Gelenkstellung per Funk oder Kabel an den Rechner meldet." Mit einem einzigen Handschuh ist es zudem oft nicht getan; schließlich haben die Nutzer unterschiedlich große Hände. Das Bonner Verfahren ist flexibler: Egal ob Kinderpatsche oder Maurerpranke, die Kameras erkennen genau, in welche Richtung der Benutzer gerade zeigt und wie seine Handfläche geneigt ist. "Dabei nutzen wir gar keine außergewöhnliche Technik", beteuert Schlattmann. "Die meiste Rechenarbeit erledigt die Grafikkarte." Und die sei auch kein anderes Modell, als heute bei schnellen Rechnern von Haus aus dabei sei. Ein weiterer Vorteil: Man muss das Verfahren nicht initialisieren. Sobald die Hand im Blickfeld der Kameras auftaucht, legt die Tracking-Software los. Bei anderen Methoden wird der Nutzer bei Programmstart aufgefordert, seine Hand in einer definierten Position an eine bestimmte Stelle zu legen.

Zum Spielen ist die neue Methode übrigens nicht primär gedacht - auch wenn sich damit aus Sicht der Informatiker auch Playstation oder X-Box viel intuitiver steuern ließen als bislang. "Wir entwickeln in einem EU-Projekt möglichst natürliche Interaktionsmöglichkeiten zwischen Mensch und Maschine", sagt Professor Dr. Reinhard Klein. Der Wissenschaftler leitet am Bonner Institut für Informatik II die Arbeitsgruppe "Computer Graphik". "Unsere Partner bauen dazu beispielsweise einen 3D-Bildschirm, der ohne Brillen oder ähnliche Hilfsmittel funktioniert."

Interesse an intuitiven und flexiblen Eingabegeräten kommt beispielsweise aus der Medizin. Beispiel Computertomographie: Hier fallen immense Datenmengen an, aus denen Grafikprogramme detaillierte dreidimensionale Bilder erzeugen. Mit der Software ist es zum Beispiel auch möglich, sich durch das Gehirn zu einem Tumor zu navigieren, ihn aus allen Blickwinkeln zu betrachten oder umliegendes Gewebe auszublenden, das den Blick auf den Krankheitsherd stört. "Eine herkömmliche Maus ist für derartige 3D-Anwendungen aber nur schlecht geeignet", betont Markus Schlattmann. "Mit einem guten Handtracking-Verfahren geht das viel einfacher und natürlicher!"

Quelle: Pressemitteilung Informationsdienst Wissenschaft e.V.

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte glaube in folgendes Feld um den Spam-Filter zu umgehen

Anzeige