Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Nachrichten IT/Computer Aktueller Bericht der UNESCO fordert die Verwendung eines "neutralen Maschinengeschlechts"

Aktueller Bericht der UNESCO fordert die Verwendung eines "neutralen Maschinengeschlechts"

Archivmeldung vom 24.05.2019

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 24.05.2019 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Alexa vermittelt oft falsches Frauenbild.
Alexa vermittelt oft falsches Frauenbild.

Bild: unsplash.com/Loewe Technologies

Moderne Sprachassistenten wie Amazons Alexa, Apples Siri oder Microsofts Cortana reflektieren, verstärken und verbreiten stereotype Geschlechterbilder von Frauen. Diese werden durch entsprechende Technologien, die Usern mithilfe von Künstlicher Intelligenz (KI) den Alltag erleichtern sollen, oft auch herabgewürdigt und zu braven, willfährigen Gehilfinnen degradiert. Zu dem Ergebnis kommt ein aktueller Bericht der UNESCO, der die Hersteller unter anderem dazu auffordert, ihre Systeme nicht standardmäßig mit weiblichen Stimmen auszustatten, sondern stattdessen ein "neutrales Maschinengeschlecht" zu verwenden.

Weibliches Erscheinungsbild

"Schon im nächsten Jahr wird es soweit sein. Dann werden vermutlich bereits mehr Menschen Gespräche mit ihren digitalen Sprachassistenten führen als mit ihren Ehepartnern", heißt es von der UNESCO. Gegenwärtig sei die große Mehrheit dieser Assistenten von Werksseite her auf ein weibliches Erscheinungsbild getrimmt - sowohl in Bezug auf ihre Namen als auch ihre Stimmen und Persönlichkeiten. Mit dem Bericht, der in Kooperation mit dem deutschen Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung http://bmz.de und der EQUALS Skills Coalition erarbeitet wurde, wolle man einen "kritischen Blick" auf diese Praktiken werfen.

"Die Welt muss viel stärker darauf achten, wie, wann und ob KI-Technologien stereotype Vorstellungen von Geschlechterrollen einsetzen und verbreiten", betont Saniye Gülser Corat, Leiterin des Bereichs Gender Equality bei der Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur. Oft sei es nämlich so, dass durch den Einsatz solcher Geräte ein völlig falsches Bild entsteht, das zeigt, wie Frauen sich ausdrücken oder auf Bitten reagieren sollen. "Eine synthetische weibliche Persönlichkeit muss Kommandos einer höheren, zumeist männlichen Autorität ausführen", so Corat.

Zu wenig Frauen als Entwickler

Dass Alexa und Co großteils weiblich sind, sei allerdings auch ein Ausdruck für die zumeist sehr einseitige Zusammensetzung der KI-Entwickler-Teams, die für derartige Systeme verantwortlich sind. "Diese Teams müssen in Bezug auf ihre geschlechtliche Zusammensetzung stärker ausbalanciert sein", fordert die UNESCO. Im Moment würden Frauen nur zwölf Prozent der KI-Entwickler stellen, bei den Software-Entwicklern seien es sogar nur sechs Prozent. "Dieses Problem lässt sich nur durch besser ausgewogene digitale Bildungs- und Trainingsprogramme lösen", ist die Organisation überzeugt.

UNESCO-Bericht "I'd blush if I could: closing gender divides in digital skills through education" online verfügbar unter: http://bit.ly/2WlFOhh

Quelle: www.pressetext.com/Markus Steiner

Anzeige:
Videos
Bild: Harmony United Ltd
Das Harmony Kopfhörer-Set
Bild: Timo Klostermeier / pixelio.de
Was der Öffentlichkeit über Kohlendioxid (CO₂) verschwiegen wird
Termine
LUBKI Basiskurs „Der Junge Krieger“
01277 Dresden
22.11.2019
LUBKI Kurs „Zulassung“
01277 Dresden
23.11.2019 - 24.11.2019
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:

Anzeige