Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer Gefühlserkennung: Roboter trainieren Mediziner

Gefühlserkennung: Roboter trainieren Mediziner

Archivmeldung vom 22.03.2017

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 22.03.2017 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Roboter: verfügt über bewegliche Gesichtszüge. Bild: humanrobotinteraction.org
Roboter: verfügt über bewegliche Gesichtszüge. Bild: humanrobotinteraction.org

Forscher der University of California, San Diego haben Roboter und Avatare entwickelt, die Schmerz, Ekel und Ärger ausdrücken können. Im Vorfeld wurden Videos von Personen, die diese Emotionen zeigen, mithilfe einer Gesichtserkennungs-Software in eine Serie von 66 Bewegungspunkten umgewandelt. Diese sind anschließend auf dem Robotergesicht und dem Avatar abgebildet worden.

"Die künstliche Darstellung von Emotionen ist ein wichtiges Instrument der Robotik, um eine nonverbale Kommunikationsebene zwischen Roboter und Menschen bereitzustellen. Auch JOANNEUM RESEARCH - ROBOTICS arbeitet derzeit an der Darstellung von Gesichtsausdrücken für einen Roboterkopf. Hierbei versuchen wir robotertypische Zustandsformen, wie zum Beispiel 'Aufgabe verstanden', 'Aufgabe erledigt' oder auch 'Eingabe unverständlich' über Gesichtsausdrücke, mit teilweise unterstützenden Gesten, umzusetzen", erläutert Mathias Brandstötter von ROBOTICS - Institut für Robotik und Mechatronik der JOANNEUM RESEARCH Forschungsgesellschaft gegenüber pressetext.

Mit Kindern, Erwachsenen und älteren Menschen werde mit unterschiedlichen Augen- und Mundformen versucht, verständlich zu kommunizieren. "Aus der Erfahrung haben wir gelernt, dass ein Satz bekannter Emotionen viel einfacher für einen Menschen einzuordnen ist, als wenn die zu erkennenden Gesichtsausdrücke einem Menschen vorher nicht bekannt sind. Diese Herausforderung versucht ROBOTICS aktuell zu bewältigen", resümiert der Experte.

Bei dem verwendeten Roboter der University of California handelt es sich um den humanoiden Roboter des Unternehmens Hanson Robotics, der den Science-Fiction-Autor Philip K Dick darstellt. Dieser verfügt über eine Gummihaut und kann seine Gesichtszüge bewegen. Die Forscher haben 102 Probanden Videos der Roboter und von virtuellen Avatare gezeigt. Von den Versuchsteilnehmern gehörten 51 zum medizinischen Fachpersonal, darunter Ärzte, Krankenschwestern und Pharmazeuten, während der Rest keinen medizinischen Hintergrund hatte.

Interpretations-Fähigkeit wichtig

Den Ergebnissen der Studie zufolge haben die Mediziner bei der Einschätzung von Schmerz und Ärger wesentlich schlechter abgeschnitten als die andere Hälfte der Probanden. Hier lag die Trefferquote des Fachpersonals bei lediglich 54 Prozent, während die der restlichen Versuchsteilnehmer mit 83 Prozent erstaunlich hoch war. Für Ekel fielen die Ergebnisse beider Gruppen annähernd ähnlich aus.

"Das Gesicht eines Patienten zu interpretieren, kann dabei helfen zu bestimmen, ob dieser einen Schlaganfall erlitten hat, ob er Schmerzen hat oder, ob er auf die Medikation reagiert. Somit müssen Ärzte von Anfang an über diese Fähigkeit verfügen", schildert Studienleiterin Laurel Riek, Professorin für Computer Science und Engineering an der University of California, San Diego. Die Forschungsergebnisse sind kürzlich auf der Conference on Human-Robot Interaction in Wien präsentiert worden.

Quelle: www.pressetext.com/Carolina Schmolmüller

Videos
Inelia Benz: Raumschiff Erde – und Du bist der Kapitän!
Inelia Benz: Raumschiff Erde – und Du bist der Kapitän!
Gandalf Lipinski: Ausstieg aus dem Patriarchat (Teil 3)
Gandalf Lipinski: Ausstieg aus dem Patriarchat (Teil 3)
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte metall in folgendes Feld um den Spam-Filter zu umgehen

Anzeige