Eine ehemalige Kollegin von mir schickte mir eine lange Mail zu ihren Befürchtungen zu den Fortschritten der Künstlichen Intelligenz. Sie fragte mich, ob es eine Möglichkeit gäbe, dies unter die Menschen zu bringen. Gerne möchte ich ihr diesen Wunsch erfüllen. Bei allen Hoffnungen, die wir in Künstliche Intelligenz haben, gibt es nicht wenige Menschen, die sich Sorgen machen. Wenn man sich die - auch in diesem Artikel - genannten Experten dazu anhört, dann sind dies durchaus berechtigte Sorgen. Ich habe die Mail als einen Blogbeitrag verändert und entsprechend umgeschrieben. Ich freue mich, wenn er geteilt und diskutiert wird. Die Kollegin möchte gerne anonym bleiben.
Die Entwicklung der Künstlichen Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht und fasziniert viele Menschen. Auch im Bildungsbereich eröffnen sich durch KI spannende Möglichkeiten, aber es gibt noch ein viel größeres Thema, das uns alle betreffen könnte: die existenziellen Risiken, die mit einer rasanten KI-Entwicklung einhergehen.
In diesem Beitrag möchte ich auf diese Risiken aufmerksam machen und einige wichtige Links und Quellen mit euch teilen. Es ist mir ein großes Anliegen, die Gefahr, die von einer möglichen allgemeinen oder sogar superintelligenten KI ausgeht, stärker ins gesellschaftliche Bewusstsein zu rücken.
Als Lehrkraft und Elternteil ist das Thema Bildung eine Herzensangelegenheit. Inwieweit KI die Schule revolutionieren oder entmenschlichen könnte (siehe beispielsweise SquirrelAI, beschäftigt viele von uns. Die aktuelle Entwicklung von Sprachmodellen wie ChatGPT zeigt, dass es in Zukunft vielfältige Einsatzmöglichkeiten im Unterricht geben wird – sei es zur Unterstützung bei Aufgaben, der Erstellung von Lernmaterialien oder zur Automatisierung von Korrekturprozessen.
Allerdings stellen sich hier schon erste kritische Fragen: Welche falschen Informationen oder Verzerrungen können dabei transportiert werden? Wie wirken sich KI-Tools auf die Eigenständigkeit beim Lernen aus? Wie können wir Diskriminierung und Manipulation durch KI verhindern?
Was aber wirklich alarmierend ist, ist die quasi exponentielle Entwicklung der KI. Die Menschheit hat von Natur aus kaum ein Gespür für exponentielles Wachstum. Manche Grafiken machen jedoch deutlich, wie schnell sich die Leistungsfähigkeit einer KI steigern kann: Beispielgrafik 1, Beispielgrafik 2 und Beispielgrafik 3.
Diejenigen, die heute an KI-Systemen arbeiten, machen kein Geheimnis daraus, dass es zu einem „KI-Rennen“ mit enormem Innovationsdruck gekommen ist. Es geht dabei nicht nur um spezialisierte, sondern vor allem um allgemeine KI (Artificial General Intelligence, AGI) – eine KI, die dem Menschen in vielen Bereichen ebenbürtig oder sogar überlegen ist. Das Ziel mancher Unternehmen ist es sogar, eine Superintelligenz (ASI) zu erschaffen, die den menschlichen Intellekt weit übertrifft.
Was mich persönlich – ebenso wie viele andere – wirklich aufgerüttelt hat, sind die Warnungen namhafter KI-Forscher und Führungskräfte aus der Tech-Industrie. Beispielsweise sprechen Geoffery Hinton (Turing- und Nobelpreisträger) und Yoshua Bengio (Turingpreisträger) offen von existenziellen Risiken. Auch die CEOs führender KI-Firmen bestätigen diesen Eindruck eine Sammlung von Zitaten findet sich hier.
Sam Altman, Mitbegründer und Geschäftsführer von OpenAI, sagte bereits 2015 sehr zugespitzt:
„AI will probably most likely lead to the end of the world, but in the meantime, there'll be great companies.“
Weiterführende Informationen zu diesen Aussagen sind hier zu finden.
Aktuell wird intensiv an KI gearbeitet, ohne dass klar ist, wie die Systeme dauerhaft kontrolliert werden können. Das sogenannte Alignment-Problem – also die Frage, wie man sicherstellt, dass KI-Systeme immer nach menschlichen Werten handeln – ist ungelöst und laut vielen Experten sind wir von einer verlässlichen, mathematisch eindeutigen Lösung weit entfernt.
Verschiedene Forscher, darunter Yoshua Bengio, zeigen auf, warum man „einfach den Stecker ziehen“ nicht als Lösung betrachten kann (siehe FAQ Q15 von Bengio). Eine fortgeschrittene KI könnte schneller handeln und effektiver agieren, als Menschen reagieren können – und das möglicherweise auch ohne böse Absicht.
Der Gedanke, eine hochentwickelte KI könnte die Menschheit versehentlich oder gezielt auslöschen, ist beängstigend. Ob dies in zwei, zehn oder zwanzig Jahren realistisch wird, ist schwer zu sagen. Doch die Gefahr ist keineswegs nur Science-Fiction, wie die Stimmen aus der Tech-Industrie belegen.
Ein Vergleich drängt sich hier auf: Als Kernenergie entdeckt wurde, konnte man auch nicht ahnen, dass innerhalb kürzester Zeit die Atombombe gebaut und eingesetzt werden würde. Selbst angesehene Physiker haben das unterschätzt.
„Energy produced by the breaking down of the atom is a very poor kind of thing. Anyone who expects a source of power from the transformation of these atoms is talking moonshine.“ (Ernest Rutherford, 1933)
Nur zwölf Jahre später wurde Hiroshima bombardiert. Ähnlich leicht könnten wir heute die Geschwindigkeit und die Risiken der KI unterschätzen.
Stellt euch Folgendes vor: Ein neuartiges Flugzeug hätte eine zehnprozentige Absturzchance. Würdet ihr damit fliegen? Oder ein Forschungslabor würde offen zugeben, dass sein Reaktor eine gewisse Wahrscheinlichkeit hat, die Welt zu zerstören. Würden wir nicht alle auf die Barrikaden gehen?
In puncto KI scheint genau diese kollektive Alarmierung noch nicht in vollem Ausmaß stattzufinden. Psychologisch ist das nachvollziehbar (siehe auch „Psychology of x-risk), aber wir sind jetzt gefragt, die Gesellschaft für die Gefahren zu sensibilisieren und ein Innehalten zu fordern.
Aus diesem Grund fordern immer mehr Menschen, die Entwicklung besonders leistungsstarker KI-Systeme zunächst zu *pausieren*. Wir müssen Zeit gewinnen, um die Kontrollmechanismen (Alignment) zu entwickeln und international verbindliche Sicherheitsstandards zu schaffen. Das Tempo, mit dem KI-Firmen um die Wette forschen, führt geradewegs in eine Situation, in der Fehler, Missbrauch oder Unfälle unkontrollierbare Folgen haben könnten.
Eine gute Übersicht zu diesen Forderungen findet sich hier und speziell zum Zeitfaktor und der Dringlichkeit hier: pauseai.info/urgency.
- Time-Artikel von Eliezer Yudkowsky(https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/)
- Interview mit Geoffrey Hinton (BBC): [YouTube](https://youtu.be/MGJpR591oaM?si=_9-q0AndqesNIbG)
- Interview mit Max Tegmark: [YouTube](https://www.youtube.com/watch?v=VcVfceTsD0A)
- Interview mit Yoshua Bengio: [YouTube](https://www.youtube.com/watch?v=KcbTbTxPMLc&t=1694s)
- Interview mit Eliezer Yudkowsky: [YouTube](https://www.youtube.com/watch?v=jW2ihBRzLxc)
Außerdem empfehlenswert:
- Buch: Uncontrollable – The Threat of Artificial Superintelligence and the Race to Save the World* von Darren McKee, kostenfrei bestellbar [hier](https://impactbooks.store/cart/47288196366640:1?discount=UNCON-P3SFRS).
- Aussage von Mo Gawdat (ehem. Google-Führungskraft):
> „this is bigger than climate change, way bigger than covid...“
YouTube: https://youtu.be/bk-nQ7HF6k4?si=ZgR28VIqa4IplgdL&t=181
KI bietet enormes Potenzial, doch die exponentielle Entwicklung bringt existenzielle Risiken mit sich, über die dringend gesprochen werden muss. Es geht hier nicht um reine Panikmache, sondern um den gebotenen Realitätssinn angesichts der Aussagen führender KI-Experten.
Wir stehen an einem Scheideweg. Wenn wir weitermachen wie bisher, riskieren wir eine unkontrollierte Entwicklung, die niemand mehr zurückdrehen kann. Eine Pause in der Forschung an besonders leistungsstarker KI, ein globales Regelwerk und intensivierte Forschung zum Alignment-Problem könnten entscheidend sein, um die Zukunft der Menschheit zu schützen.
Wir haben keinen zweiten Versuch.
Letztlich liegt es an uns allen, Druck auf Politik, Wirtschaft und Forschung auszuüben, damit wir verantwortungsvoll mit der mächtigsten Technologie der Geschichte umgehen.