Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Nachrichten IT/Computer KI-System findet Hass in sozialen Medien

KI-System findet Hass in sozialen Medien

Archivmeldung vom 17.01.2020

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 17.01.2020 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Rohingya in Myanmar häufig als Ziel von Hass-Postings.
Rohingya in Myanmar häufig als Ziel von Hass-Postings.

Bild: cmu.edu

Experten der Carnegie Mellon University (CMU) bekämpfen Hass-Postings im Social Web nun technisch. Eine Künstliche Intelligenz (KI) durchforstet Millionen von Meldungen in Sekunden und unterscheidet dabei "Hate speech" von positiven Kommentaren ("Help speech"). Letztere können dann von menschlichen Moderatoren aufgegriffen und in den Social-Feeds der Nutzer hervorgehoben werden, um das Internet generell "sicherer und umgänglicher" zu gestalten, so die Forscher.

"Internet zu besserem Ort machen"

"Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden", erklärt Ashiqur KhudaBukhsh, Post-Doc am Language Technologies Institute (LTI) der CMU. Das Problem sei allerdings, dass es dem Einzelnen in Anbetracht der rapiden Zunahme an Hass-Postings meist nur mehr schwer möglich sei, überhaupt auf diese positiven Meldungen zu stoßen. "Indem wir genau diese Inhalte finden und hervorheben, können wir das Internet genauso zu einem besseren Ort machen, wie wenn wir schädlichen Content aufspüren und ausmerzen und ihre Verursacher aussperren", ist der Experte überzeugt.

Natürlich sei es für Menschen völlig unmöglich, sich durch Millionen von Postings zu arbeiten, um die Spreu vom Weizen zu trennen. Für diese Aufgabe brauche es eine ausgereifte KI, wie LTI-Leiter Jaime Carbonell betont: "Die Analyse derart großer Datenmengen in so kurzer Zeit ist nur möglich aufgrund der jüngsten Fortschritte im Bereich des Maschinellen Lernens. Nur so können Maschinen wirklich verstehen, was ein Autor mit seinem Kommentar eigentlich sagen will."

Test zur Flüchtlingskrise der Rohingya

Um ihre Methode zu testen, ließen die CMU-Wissenschaftler ihre KI-Software eine umfassende Analyse von insgesamt knapp einer Viertel Million YouTube-Kommentaren durchführen, die sich mit der Flüchtlingskrise der Rohingya in Myanmar auseinandersetzen. "Diese Minderheit ist der Hate speech im Netz größtenteils völlig hilflos ausgeliefert. Die meisten Mitgleiter können kein Englisch, verfügen über keinen Internetzugang oder sind einfach zu beschäftigt damit, am Leben zu bleiben, um selbst Inhalte online zu stellen", stellt KhudaBukhsh klar.

Das Ergebnis: Als normaler Nutzer stößt man auf Googles Videoportal im Schnitt lediglich auf rund zehn Prozent von Meldungen, die sich positiv zum Thema äußern. Sobald man allerdings die KI-unterstützte Methode anwendet, um positive Inhalte zu finden, und diese anschließend von Moderatoren stärker in den News-Feeds hervorheben zu lassen, steigt die Zahl der positiven Kommentare sprungartig auf 88 Prozent an. "Das zeigt, wie viel Potenzial dieser Ansatz hat", meint KhudaBukhsh.

Quelle: www.pressetext.com/Markus Steiner

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte visage in folgendes Feld um den Spam-Filter zu umgehen

Anzeige