Direkt zum Inhalt Direkt zur Navigation
Sie sind hier: Startseite Berichte IT/Computer „Außer Kontrolle“: Musk und Forscher fordern KI-Entwicklungspause

„Außer Kontrolle“: Musk und Forscher fordern KI-Entwicklungspause

Archivmeldung vom 03.04.2023

Bitte beachten Sie, dass die Meldung den Stand der Dinge zum Zeitpunkt ihrer Veröffentlichung am 03.04.2023 wiedergibt. Eventuelle in der Zwischenzeit veränderte Sachverhalte bleiben daher unberücksichtigt.

Freigeschaltet durch Sanjo Babić
Bild: Musk: Emily Shanklin at SpaceX / Wikimedia Commons / Public domain; freigestellt; Hintergrund: Freepik; Montage: AUF1 / Eigenes Werk
Bild: Musk: Emily Shanklin at SpaceX / Wikimedia Commons / Public domain; freigestellt; Hintergrund: Freepik; Montage: AUF1 / Eigenes Werk

Eine Reihe bekannter KI-Forscher – darunter Elon Musk – haben einen offenen Brief unterzeichnet, in dem sie KI-Labors in aller Welt auffordern, die Entwicklung von Systemen mit künstlicher Intelligenz für sechs Monate auszusetzen. Sie fürchten „tiefgreifende Risiken für die Gesellschaft und die Menschheit“. Dies berichtet das Portal "AUF1.info".

Weiter berichtet das Portal: "In dem Brief, der vom gemeinnützigen „Future of Life Institute“ veröffentlicht wurde, heißt es, dass sich die KI-Labors derzeit in einem „außer Kontrolle geratenen Wettlauf“ befinden, um maschinelle Lernsysteme zu entwickeln und einzusetzen, „die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“.

Sechs Monate Pause gefordert

Es wird von sämtlichen KI-Laboren gefordert, das Training von KI-Systemen, die leistungsfähiger als die Künstliche-Intelligenz-Software ChatGPT-4 sind, sofort für mindestens sechs Monate zu pausieren. „Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.“

Zu den Unterzeichnern gehören der Autor und WEF-Vordenker Yuval Noah Harari, der Apple-Mitbegründer Steve Wozniak, der Skype-Mitbegründer Jaan Tallinn, der Politiker Andrew Yang sowie eine Reihe bekannter KI-Forscher und CEOs.

KI-Wettlauf wird weitergehen

Es ist unwahrscheinlich, dass das Schreiben Auswirkungen auf das derzeitige Klima in der KI-Forschung haben wird, in dem Technologieunternehmen wie Google und Microsoft in aller Eile neue Produkte auf den Markt bringen und dabei häufig die zuvor geäußerten Bedenken hinsichtlich Sicherheit und Ethik beiseite schieben. Aber es ist ein Zeichen für die wachsende Opposition gegen den Ansatz „Jetzt liefern und später reparieren“ – eine Opposition, die möglicherweise ihren Weg in den politischen Bereich finden könnte, um von den Gesetzgebern berücksichtigt zu werden.

Wie in dem Brief erwähnt, hat sogar OpenAI selbst den potenziellen Bedarf an einer „unabhängigen Überprüfung“ zukünftiger KI-Systeme geäußert, um sicherzustellen, dass sie den Sicherheitsstandards entsprechen. Die Unterzeichner sagen, dass diese Zeit nun gekommen ist.

Sicherheits-Protokolle entwickeln

„KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe von gemeinsamen Sicherheitsprotokollen für fortschrittliche KI-Designs und -Entwicklungen auszuarbeiten und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden“, schreiben sie. „Diese Protokolle sollten sicherstellen, dass Systeme, die sich an sie halten, über jeden begründeten Zweifel hinaus sicher sind.“

Hier eine maschinengestützte Übersetzung des offenen Briefs:

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate auszusetzen.

KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen, wie umfangreiche Forschungsarbeiten [1] zeigen und von führenden KI-Labors anerkannt werden [2]. Wie in den weithin befürworteten Asilomar-KI-Grundsätzen dargelegt, könnte fortgeschrittene KI einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen und sollte mit angemessener Sorgfalt und Ressourcen geplant und verwaltet werden. Leider findet eine solche Planung und Verwaltung nicht statt, obwohl sich die KI-Labors in den letzten Monaten in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe befanden, die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann.

Heutige KI-Systeme sind inzwischen bei allgemeinen Aufgaben mit Menschen konkurrenzfähig [3], und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen. In der jüngsten Erklärung von OpenAI zu künstlicher allgemeiner Intelligenz heißt es: „Irgendwann könnte es wichtig sein, eine unabhängige Überprüfung einzuholen, bevor mit dem Training künftiger Systeme begonnen wird, und für die am weitesten fortgeschrittenen Bemühungen zu vereinbaren, die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten zu begrenzen.“ Wir stimmen dem zu. Dieser Zeitpunkt ist jetzt gekommen.

Deshalb fordern wir alle KI-Labors auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle wichtigen Akteure einbeziehen. Wenn eine solche Pause nicht schnell umgesetzt werden kann, sollten die Regierungen eingreifen und ein Moratorium verhängen.

KI-Labors und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden. Diese Protokolle sollten gewährleisten, dass Systeme, die sich an sie halten, zweifelsfrei sicher sind [4]. Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten.

Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsstarken, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.

Parallel dazu müssen die KI-Entwickler mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen. Diese sollten zumindest Folgendes umfassen: neue und fähige Regulierungsbehörden, die sich speziell mit KI befassen; die Überwachung und Verfolgung hochleistungsfähiger KI-Systeme und großer Pools von Rechenkapazitäten; Herkunfts- und Wasserzeichensysteme, die dabei helfen, echte von synthetischen Daten zu unterscheiden und Modelllecks zu verfolgen; ein robustes Prüfungs- und Zertifizierungssystem; die Haftung für durch KI verursachte Schäden; eine solide öffentliche Finanzierung der technischen KI-Sicherheitsforschung; und gut ausgestattete Institutionen zur Bewältigung der dramatischen wirtschaftlichen und politischen Verwerfungen, die KI verursachen wird (insbesondere für die Demokratie).

Die Menschheit kann mit KI eine blühende Zukunft genießen. Nachdem es uns gelungen ist, leistungsfähige KI-Systeme zu schaffen, können wir nun einen „KI-Sommer“ genießen, in dem wir die Früchte ernten, diese Systeme zum klaren Nutzen aller entwickeln und der Gesellschaft die Chance geben, sich anzupassen. Bei anderen Technologien mit potenziell katastrophalen Auswirkungen auf die Gesellschaft hat die Gesellschaft eine Pause eingelegt, [5] das können wir auch hier tun. Genießen wir einen langen KI-Sommer und stürzen wir uns nicht unvorbereitet in den Herbst.

+++++ Hinweise und Referenzen:

[1] Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2] Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3] Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4] Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5] Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Quelle: AUF1.info

Videos
Daniel Mantey Bild: Hertwelle432
"MANTEY halb 8" deckt auf - Wer steuert den öffentlich-rechtlichen Rundfunk?
Mantey halb 8 - Logo des Sendeformates
"MANTEY halb 8": Enthüllungen zu Medienverantwortung und Turcks Überraschungen bei und Energiewende-Renditen!
Termine
Newsletter
Wollen Sie unsere Nachrichten täglich kompakt und kostenlos per Mail? Dann tragen Sie sich hier ein:
Schreiben Sie bitte insekt in folgendes Feld um den Spam-Filter zu umgehen

Anzeige