Vor Covid hätte ich mich als Technologieoptimist bezeichnet. Neue Technologien werden fast immer von übertriebenen Ängsten begleitet. Eisenbahnen sollten angeblich zu Nervenzusammenbrüchen führen, Fahrräder galten als Ursache für Unfruchtbarkeit oder Wahnsinn bei Frauen, und die frühe Elektrizität wurde für alles verantwortlich gemacht, vom moralischen Verfall bis zum physischen Zusammenbruch. Mit der Zeit legten sich diese Ängste, die Gesellschaften passten sich an, und der Lebensstandard stieg. Dieses Muster war so vertraut, dass künstliche Intelligenz ihm wahrscheinlich folgen würde: disruptiv, manchmal missbraucht, aber letztendlich beherrschbar.
Die Covid-Jahre erschütterten dieses Vertrauen – nicht weil die Technologie versagte, sondern weil die Institutionen versagten.
In weiten Teilen der Welt reagierten Regierungen und Expertengremien auf die Unsicherheit mit beispiellosen sozialen und biomedizinischen Interventionen, die durch Worst-Case-Szenarien gerechtfertigt und mit bemerkenswerter Entschlossenheit durchgesetzt wurden. Konkurrierende Hypothesen wurden marginalisiert, anstatt diskutiert zu werden. Notfallmaßnahmen verfestigten sich zu langfristigen Strategien. Als sich die Beweislage änderte, wurden Fehler selten eingestanden, und Verantwortlichkeit wurde noch seltener übernommen. Diese Erfahrung legte ein tiefer liegendes Problem offen, das über einzelne politische Fehlentscheidungen hinausgeht: Moderne Institutionen scheinen schlecht gerüstet zu sein, um mit Unsicherheit umzugehen, ohne dabei über das Ziel hinauszuschießen.
Diese Erkenntnis hat heute einen großen Einfluss auf die Debatten über künstliche Intelligenz.
Die KI-Risikokluft
Grob gesagt lassen sich die Bedenken hinsichtlich fortgeschrittener KI in zwei Lager einteilen. Die eine Gruppe – um die sich Denker wie Eliezer Yudkowsky und Nate Soares streiten – argumentiert, dass ausreichend fortgeschrittene KI per se katastrophal gefährlich sei. In ihrer bewusst drastischen Formulierung: Wenn es jemand baut, sterben alleDas Problem sind nicht schlechte Absichten, sondern Anreize: Wettbewerb sorgt dafür, dass jemand Abstriche bei der Sicherheit macht, und sobald ein System einer sinnvollen Kontrolle entgeht, spielen Absichten keine Rolle mehr.
Eine zweite Gruppe, zu der Persönlichkeiten wie Stuart Russell, Nick Bostrom und Max Tegmark gehören, nimmt die Risiken der KI ebenfalls ernst, ist aber optimistischer, dass durch Abstimmung, sorgfältige Steuerung und schrittweise Einführung die Systeme unter menschlicher Kontrolle bleiben können.
Trotz ihrer Unterschiede stimmen beide Lager in einem Punkt überein: Unkontrollierte KI-Entwicklung ist gefährlich, und eine Form der Aufsicht, Koordination oder Einschränkung ist notwendig. Ihre Ansichten unterscheiden sich jedoch hinsichtlich Machbarkeit und Dringlichkeit. Selten wird untersucht, ob die Institutionen, die diese Einschränkung gewährleisten sollen, selbst für diese Rolle geeignet sind.
Covid gibt Anlass zu Zweifeln.
Covid war nicht bloß eine Krise des öffentlichen Gesundheitswesens; es war ein Live-Experiment für expertengeleitete Regierungsführung unter Unsicherheit. Angesichts unvollständiger Daten wählten die Behörden wiederholt maximale Interventionen, die mit spekulativen Schäden gerechtfertigt wurden. Abweichende Meinungen wurden oft als moralisches Versagen und nicht als wissenschaftliche Notwendigkeit betrachtet. Politische Maßnahmen wurden nicht durch transparente Kosten-Nutzen-Analysen verteidigt, sondern durch Appelle an Autoritäten und die Angst vor hypothetischen Zukunftsszenarien.
Dieses Muster ist von Bedeutung, weil es aufzeigt, wie moderne Institutionen reagieren, wenn existenzielle Bedrohungen dargestellt werden. Anreize verschieben sich hin zu Entschlossenheit, Deutungshoheit und moralischer Gewissheit. Fehlerkorrektur wird mit hohen Reputationskosten verbunden. Vorsicht verliert ihre Funktion als Instrument und wird zur Doktrin.
Die Lehre daraus ist nicht, dass Experten grundsätzlich fehlerhaft sind. Vielmehr zeigt sie, dass Institutionen Selbstüberschätzung weitaus zuverlässiger belohnen als Demut, insbesondere wenn Politik, Finanzierung und die Angst der Öffentlichkeit zusammenwirken. Einmal im Namen der Sicherheit beanspruchte außerordentliche Befugnisse werden selten freiwillig wieder abgegeben.
Genau diese Dynamiken sind heute in Diskussionen über die Aufsicht über KI sichtbar.
Die „Was wäre wenn“-Maschine
Ein immer wiederkehrendes Argument für weitreichende staatliche Interventionen ist der hypothetische Bösewicht: Was, wenn ein Terrorist das baut? Was, wenn ein Schurkenstaat das tut? Aus dieser Prämisse leitet sich das Argument ab, dass Regierungen präventiv, in großem Umfang und oft im Geheimen handeln müssen, um Katastrophen zu verhindern.
Während der Covid-Pandemie rechtfertigte eine ähnliche Logik weitreichende biomedizinische Forschungsprogramme, Notfallgenehmigungen und soziale Kontrollmaßnahmen. Die Argumentation war zirkulär: weil etwas Gefährliches könnte Sollte dies eintreten, muss der Staat jetzt außergewöhnliche Maßnahmen ergreifen – Maßnahmen, die selbst erhebliche, schlecht verstandene Risiken bergen.
Die Steuerung von KI wird zunehmend auf dieselbe Weise konzipiert. Die Gefahr besteht nicht nur darin, dass KI-Systeme sich unvorhersehbar verhalten könnten, sondern auch darin, dass die Angst vor dieser Möglichkeit eine dauerhafte Notstandssteuerung – die zentrale Kontrolle über Rechenleistung, Forschung und Informationsflüsse – legitimieren wird, mit der Begründung, es gäbe keine Alternative.
Privates Risiko, öffentliches Risiko
Ein in diesen Debatten oft übersehener Unterschied liegt in der Unterscheidung zwischen Risiken, die von privaten Akteuren ausgehen, und Risiken, die durch staatliche Eingriffe verursacht werden. Private Unternehmen unterliegen – wenn auch unvollkommen – Haftungs-, Wettbewerbs-, Reputations- und Marktbeschränkungen. Diese Beschränkungen verhindern zwar keinen Schaden, erzeugen aber Rückkopplungsschleifen.
Regierungen agieren unterschiedlich. Wenn Staaten im Namen der Katastrophenprävention handeln, schwächt sich die Rückkopplung ab. Fehler können als notwendig umgedeutet werden. Kosten können externalisiert werden. Geheimhaltung kann mit Sicherheitsgründen gerechtfertigt werden. Hypothetische zukünftige Schäden werden zu politischen Hebeln in der Gegenwart.
Mehrere KI-Experten erkennen dies implizit an. Bostrom warnte vor „Lock-in“-Effekten – nicht nur durch KI-Systeme, sondern auch durch in Paniksituationen entstandene Governance-Strukturen. Anthony Aguirres Aufruf zu globaler Zurückhaltung ist zwar logisch schlüssig, stützt sich aber auf internationale Koordinierungsgremien, deren jüngste Bilanz in puncto Bescheidenheit und Fehlerkorrektur mangelhaft ist. Selbst gemäßigtere Vorschläge setzen Regulierungsbehörden voraus, die einer Politisierung und einer Ausweitung ihrer Aufgaben widerstehen können.
Covid gibt uns wenig Anlass, dieser Annahme zu vertrauen.
Das Aufsichtsparadoxon
Dies führt zu einem beunruhigenden Paradoxon im Zentrum der KI-Debatte. Wenn man tatsächlich davon überzeugt ist, dass hochentwickelte KI eingeschränkt, verlangsamt oder gestoppt werden muss, sind es Regierungen und transnationale Institutionen, die am ehesten die Macht dazu besitzen. Doch gerade diese Akteure lassen aufgrund ihres jüngsten Verhaltens am wenigsten Vertrauen in einen maßvollen und umkehrbaren Einsatz dieser Macht aufkommen.
Notfallmaßnahmen sind schwerfällig. Die zur Bewältigung hypothetischer Risiken erworbene Autorität neigt dazu, fortzubestehen und sich auszuweiten. Institutionen relativieren ihre eigene Bedeutung selten. Im Kontext von KI besteht die Möglichkeit, dass die Reaktion auf KI-Risiken fragile, politisierte Kontrollsysteme verfestigt, die schwerer aufzulösen sind als jede einzelne Technologie.
Die Gefahr besteht also nicht nur darin, dass die KI der menschlichen Kontrolle entgeht, sondern auch darin, dass die Angst vor KI die Konzentration von Macht in Institutionen beschleunigt, die sich bereits als langsam bei der Fehlereingeständnis und feindselig gegenüber abweichenden Meinungen erwiesen haben.
Das tatsächliche Risiko neu überdenken
Dies ist kein Plädoyer für Sorglosigkeit im Umgang mit KI, noch eine Leugnung des potenziellen Schadens durch leistungsstarke Technologien. Es plädiert vielmehr für eine Erweiterung des Blickwinkels. Institutionelles Versagen ist an sich eine existenzielle Variable. Ein System, das von einer wohlwollenden, selbstkorrigierenden Regierung ausgeht, ist nicht sicherer als eines, das von einer wohlwollenden, auf die Interessen abgestimmten Superintelligenz ausgeht.
Vor Covid war es nachvollziehbar, den Großteil des Technologiepessimismus auf den menschlichen Negativitätsbias zurückzuführen – die Tendenz, die Herausforderungen unserer Generation als einzigartig und unlösbar anzusehen. Nach Covid erscheint Skepsis weniger wie eine Voreingenommenheit und mehr wie Erfahrung.
Die zentrale Frage in der KI-Debatte ist daher nicht nur, ob Maschinen mit menschlichen Werten in Einklang gebracht werden können, sondern auch, ob man modernen Institutionen zutrauen kann, Unsicherheit zu bewältigen, ohne sie zu verstärken. Wenn dieses Vertrauen geschwunden ist – und Covid deutet darauf hin –, dann verdienen Forderungen nach einer umfassenden KI-Aufsicht mindestens genauso viel kritische Auseinandersetzung wie Behauptungen über die Unvermeidbarkeit des technologischen Fortschritts.
Das größte Risiko besteht vielleicht nicht darin, dass die KI zu mächtig wird, sondern darin, dass die Angst vor dieser Möglichkeit Kontrollformen rechtfertigt, von denen wir später feststellen, dass sie viel schwerer zu ertragen – oder zu entkommen – sind.
-
Roger Bate ist Brownstone Fellow, Senior Fellow am International Center for Law and Economics (Januar 2023 bis heute), Vorstandsmitglied von Africa Fighting Malaria (September 2000 bis heute) und Fellow am Institute of Economic Affairs (Januar 2000 bis heute).
Alle Beiträge