Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Nachrichten Wissenschaft Mainzer Philosoph warnt vor Kontrollverlust bei der Erforschung der Künstlichen Intelligenz

Mainzer Philosoph warnt vor Kontrollverlust bei der Erforschung der Künstlichen Intelligenz

Archivmeldung vom 03.12.2015

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 03.12.2015 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Thorsten Schmitt
Eine Gruppe von verschiedenen Drohnen.
Eine Gruppe von verschiedenen Drohnen.

Lizenz: Public domain
Die Originaldatei ist hier zu finden.

Der Mainzer Philosoph Thomas Metzinger (57) warnt vor den Folgen einer ungezügelten Entwicklung und Erforschung der Künstlichen Intelligenz. Dies berichtet das Hamburger Wirtschaftsmagazin BILANZ in seiner am Freitag erscheinenden Ausgabe. Gefahren sieht Metzinger vor allem beim Einsatz der Künstlichen Intelligenz in den Bereichen Militär und Finanztransaktionen, etwa an der Börse. Die Menschen sollten hier "keine weitere Autonomie an Maschinen abgeben, weil der mögliche Schaden die Allgemeinheit betrifft". Denkende Maschinen könnten zu der Überzeugung gelangen, "dass die Menschen irreparable Störkräfte sind, die man in Reservaten friedlich aussterben lässt".

Rechner, die menschliche Wahrnehmung und menschliches Handeln nachbildeten, bieten Metzinger zufolge jedoch auch Chancen: "Wenn wir in den nächsten 20 bis 50 Jahren erkennen, dass wir die Kontrolle über globale Krisen wie Migration oder Klimawandel verloren haben, dann könnte es auch eine Künstliche Intelligenz geben, die mit unendlich vielen Fakten gefüttert wird und gute Vorschläge" zur Bewältigung der Probleme mache.

Um dieses Ziel zu erreichen, müssten die Wissenschaftler Maschinen jedoch verantwortungsvoll programmieren: "Zum einen müssen wir Menschen klären, was wir selbst mit Maschinen tun wollen - sei es beim Drohnenkrieg, bei autonomen Kampfrobotern, bei Pflegerobotern. Aber auch die Maschinen selbst brauchen moralische Regeln." Doch die Entscheidung darüber, welche ethischen Maßstäbe angelegt würden, sei insofern problematisch, als weltweit unterschiedliche Wertsysteme existierten. "Stellen Sie sich Google-Autos in Saudi-Arabien vor: Es könnte sein, dass das System Ungläubige beim Autounfall eher sterben lässt als Gläubige", sagte Metzinger der BILANZ.

Quelle: BILANZ (ots)

Videos
Inelia Benz über Krankheit und Tod
Inelia Benz über Krankheit und Tod
Inelia Benz: "Was wäre, wenn...?"
Inelia Benz: "Was wäre, wenn...?"
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte wann in folgendes Feld um den Spam-Filter zu umgehen

Anzeige