Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer Victory-Zeichen: Computer erkennt Körpersprache

Victory-Zeichen: Computer erkennt Körpersprache

Archivmeldung vom 12.07.2017

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 12.07.2017 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Strichmännchen: Die Künstliche Intelligenz erkennt die Haltung. Bild: cmu.edu
Strichmännchen: Die Künstliche Intelligenz erkennt die Haltung. Bild: cmu.edu

Forscher am Robotics Institute der Carnegie Mellon University (CMU) haben es geschafft, dass ein Computer in Echtzeit Körpersprache versteht und dabei erstmals auch die Position einzelner Finger erkennt - also auch ein Victory-Zeichen. Das funktioniert mittlerweile mit einem Laptop und einer Kamera. Für die Robotik ist die Entwicklung von großem Interesse, da die Erkennung von Körpersprache letztlich eine natürlichere Interaktion zwischen Mensch und Maschine verspricht.

"Wir kommunizieren durch die Bewegung unseres Körpers fast so viel wie mit der Stimme", sagt Yaser Sheikh, Robotik-Professor an der CMU. Doch Computer sind auf diesem Auge bislang weitgehend blind. Mithilfe des zweistöckigen Kuppel Panotic Studios, die 500 Kameras enthält, hat sich Sheikhs Team mit der Erfassung von Körper und Hand in Videos befasst. Dank dieser Ergebnisse haben sie nun ein System, das mit nur einer Kamera auf einem Laptop schafft, die Körperhaltung einer Gruppe von Menschen zu beurteilen.

Das verspricht neue Möglichkeiten der nichtverbalen Interaktion von Mensch und Maschine. Wichtig ist das zum Beispiel für Roboter, die eng mit Personen zusammenarbeiten oder diese betreuen sollen. So wäre es praktisch, wenn Pflegeroboter das Zeigen auf einen Gegenstand als Aufforderung, diesen zu bringen, verstehen - diese Geste aber auch klar von anderen unterscheiden können. Die Körpersprache des gesamten Körpers wiederum könnte unter anderem für selbstfahrende Autos interessant sein. Damit ließe sich beispielsweise einschätzen, ob ein Fußgänger im Begriff ist, zwecks Straßenüberqueren die Fahrbahn zu betreten.

Wichtige Teilansichten

Die Arbeit mit dem Panoptic Studio hat es dem Team entscheidend erleichtert zu ergründen, wie es Computern die richtige Interpretation der Haltung von Händen beibringen kann. Denn wenngleich eine Hand auf einem Einzelbild beispielsweise durch einen gehaltenen Gegenstand teilweise verdeckt sein mag, ist ihre Haltung in den 500 gleichzeitig gemachten Aufnahmen aus allen Richtungen immer komplett zu erkennen. Die große Kuppel kommt nun zum Einsatz, um Computersysteme noch besser zu trainieren, was die Erkennung von Körper, Gesicht und Händen betrifft.

Quelle: www.pressetext.com/Thomas Pichler

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte waffel in folgendes Feld um den Spam-Filter zu umgehen

Anzeige