Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer Große Bedrohung: Deepfakes entwickeln sich rasant

Große Bedrohung: Deepfakes entwickeln sich rasant

Archivmeldung vom 17.02.2021

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 17.02.2021 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Anja Schmitt
Deepfake of Doug Roble
Deepfake of Doug Roble

Foto: FlickreviewR 2
Lizenz: CC BY 2.0
Die Originaldatei ist hier zu finden.

Deepfakes, also mit künstlicher Intelligenz hergestellte Fake-Videos, sind nicht nur eine Spielerei. Mit ihrer rasanten Entwicklung stellen sie auch eine große Bedrohung dar – und sie werden immer schlauer. Nun konnten Forscher mit einem neuen Verfahren 99 Prozent der gängigen Detektoren gegen die Falschinhalte überlisten. Dies meldet das russische online Magazin „SNA News“ .

Weiter ist auf deren deutschen Webseite dazu folgendes zu lesen: "Als Angela Merkel plötzlich 2018 mit dem Gesicht von Donald Trump Reden schwang, war es unterhaltsam bis befremdlich. Aber die Technologie, die solche Manipulationen möglich macht – sogenannte Deepfakes – müssen nicht bei harmlosen Spielereien stehenbleiben. Trickbetrüger haben bereits mit einem Audio-Deepfake eine Firma um 220.000 Euro erleichtert. Aber nicht nur an der Audiofront wird es brenzlig, auch die Videos machen beängstigende Fortschritte.

Über einen solchen Fortschritt berichtet das Portal Digital Trends. Es geht dabei um nichts weniger als die Überlistung bestehender Deepfake-Detektoren. Aber dazu zunächst einmal der Hintergrund: Für die Produktion eines Deepfake-Videos wird die Aufnahme einer Person benötigt, der etwas in den Mund gelegt wird, man nennt sie das Ziel. Dann wird eine andere Person aufgenommen, die das vor der Kamera sagt und tut, was später die andere Person sagen soll. Diese bezeichnet man als Quelle. Und dann überträgt eine Software die Bewegungen des Schauspielers auf die betreffende Person.

Deepfake-Detektoren setzen dort an, wo die Software Fehler macht. Unnatürliches Augenblinzeln etwa oder andere Gesichtsbewegungen, die nicht natürlich wirken. Dabei geht es teilweise um extrem kleine Bildbereiche. Und genau diese Bereiche konnten Forscher der Kalifornischen Universität San Diego verfälschen, damit diese nicht mehr als fehlerhaft erkannt werden. Dafür fügen sie in die kritischen Bereiche eines Bilds ein Rauschen hinzu, was der Mensch gar nicht wahrnimmt, das aber dafür sorgt, dass die Detektor-Software eine falsche Zuordnung trifft. Auf diese Weise konnten sie bereits 2017 das Programm dazu bringen, eine Schildkröte als ein Gewehr wahrzunehmen.

Dieselben Forscher teilen mit, sie hätten mit ihrem Rauschen über 99 Prozent der gängigen Detektor-Systeme umgehen können, wenn ihnen das Detektormodell bekannt gewesen sei. Will heißen: Diese würden das betreffende Video als echt einstufen. Selbst bei komprimierten Videos zeigte sich das Verfahren als erfolgreich.

Ihren Code halten die Forscher entsprechend geheim. Aber das Ganze wird wohl immer weiter so gehen: Deepfakes machen Detektoren nötig, Wissen um die Detektoren macht neue Deepfakes möglich und diese machen wieder neue Detektoren nötig. Das Vertrauen in Medieninhalte in sozialen Netzwerken dürfte mit solchen Entwicklungen in Zukunft weiter schwinden.

Ein Aufsatz zu dem Thema wurde auf der virtuellen Konferenz des diesjährigen Workshops zu visuellen Computeranwendungen vorgestellt (WACV21). "

Quelle: SNA News (Deutschland)

Videos
Impfen (Symbolbild)
"Impfen" oder nicht?
PCR (Symbolbild)
Der PCR-Schwindel
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte zogen in folgendes Feld um den Spam-Filter zu umgehen

Anzeige