Brownstone » Artikel des Brownstone Institute » Was die Leute in der KI-Debatte übersehen
ChatGPT

Was die Leute in der KI-Debatte übersehen

TEILEN | DRUCKEN | EMAIL

Es war interessant zu sehen, was in den letzten Wochen über künstliche Intelligenz (KI) geschrieben wurde, insbesondere was den Hype um ChatGPT betrifft. Soweit ich das beurteilen kann, beruht das meiste davon im Wesentlichen auf der Wahrnehmung oder Befürchtung, dass die KI den Menschen in puncto Intelligenz überlegen sei. Dr. Harvey Risch augenöffnendes Konto Sein „Gespräch“ mit einer KI hat deutlich gezeigt, dass dies eine falsche Wahrnehmung ist, und dennoch scheint sie trotzdem fortzubestehen. 

Eine kürzliche Erfahrung, die ich mit einem ChatGPT-Enthusiasten gemacht habe, vermittelt den gleichen Eindruck hinsichtlich der weit verbreiteten Überzeugung, dass die letztere AGI (Künstliche Allgemeine Intelligenz) den Menschen in der Intelligenzabteilung ebenbürtig, wenn nicht sogar überlegen ist. Es geschah anlässlich eines Vortrags, den ich vor Mitgliedern einer Kulturorganisation hielt, in dem es um die Frage ging, inwieweit die Arbeit von Freud und Hannah Arendt Einblicke in das aktuelle Wachstum heimtückischer totalitärer Kontrollmaßnahmen weltweit geben kann. 

Eine dieser verräterischen Entwicklungen ist der Versuch der Weltgesundheitsorganisation, Länder durch eine erfolgreiche Verfassungsänderung ihrer Souveränität zu berauben. Dieser Versuch scheiterte vor zwei Jahren, als afrikanische Länder sich den vorgeschlagenen Änderungen widersetzten, aber im Jahr 2024 wird die WHO es erneut versuchen, nachdem sie in der Zwischenzeit energische Lobbyarbeit bei afrikanischen Staats- und Regierungschefs geleistet hat.

Im Anschluss an meinen Vortrag brachte jemand das Thema mit KI in Verbindung. Konkret betraf dies meine Behauptung, dass Freuds Konzepte von Eros (Lebenstrieb) und Thanatos (Todestrieb) einerseits und Arendts Vorstellungen von Geburt (jeder Mensch bringt durch seine Geburt etwas Einzigartiges in die Welt) und Pluralität (Alle Menschen sind unterschiedlich) werfen andererseits Licht auf die Natur des Totalitarismus. Dabei ging es auch um die Frage, ob der Totalitarismus von denen aufrechterhalten werden kann, die ihn fördern. Es stellte sich heraus, dass er, nachdem das Thema meines Vortrags verbreitet worden war, ChatGPT gebeten hatte, dazu einen Kommentar abzugeben, und die „Antwort“ der KI in gedruckter Form zum Treffen mitgebracht hatte, um sie mir zu zeigen.

Erwartungsgemäß war es für eine linguistische Mustererkennungs- und prädiktive Forschungsmaschine mit einer riesigen Datenbank (was ChatGPT eigentlich ist) nicht schwer, genau zu entschlüsseln, was die relevanten Freudschen und Arendtschen Konzepte bedeuten – jeder Student konnte dies im Internet finden oder auch in einer Bibliothek. Aber wo die KI scheiterte, betraf die Verbindung, die ich zwischen den Ideen dieser Denker und den aktuellen Ereignissen im globalen Raum herstellte.

Erinnern Sie sich daran, dass ich die Konzepte von Freud und Arendt heuristisch in Bezug auf die wohl Anzeichen totalitärer „Bewegungen“ angewendet habe, die heute in verschiedenen institutionellen Bereichen unternommen werden. ChatGPT tat es – wiederum vorhersehbar – (und wohl auch). könnte) ging nicht näher auf den Zusammenhang ein, den ich im verbreiteten Titel meines Vortrags angedeutet hatte, und hatte lediglich „behauptet“, dass es „irgendeine“ Beziehung zwischen den Ideen dieser beiden Denker und dem Totalitarismus gebe.

Der Grund dafür sollte sofort ersichtlich sein. Nirgendwo in der Datenbank von ChatGPT gibt es irgendwelche Informationen – im Format einer lesbaren Interpretation – wofür Ereignisse wie der anhaltende Versuch der WHO, die Weltregierung zu werden (siehe oben), symptomatisch sind, nämlich für ein beginnendes globales totalitäres Regime. Damit ChatGPT (oder jede andere KI) in der Lage ist, eine solche „Interpretation“ vorzulegen, müsste sie entweder von ihren Programmierern in ihre Datenbank eingegeben werden – was angesichts der impliziten Kritik daran unwahrscheinlich, wenn nicht undenkbar ist Konstellation von Kräften, die zur Konstruktion von ChatGPT geführt hat – oder die KI müsste über die Fähigkeit verfügen, die alle „normalen“ Menschen haben, nämlich die Erfahrungswelt um sie herum interpretieren zu können. Offensichtlich verfügt keine KI über diese Fähigkeit, da sie darauf angewiesen ist, programmiert zu werden. 

Mein Gesprächspartner bestritt diese erklärende Antwort meinerseits und argumentierte, dass ChatGPT seine Fähigkeit zur „Begründung“ in jeder „Antwort“ auf Fragen zeige, die man stellen könnte. Ich habe darauf hingewiesen, dass dies keine genaue Beschreibung dessen ist, was die KI tut. Denken Sie daran: ChatGPT produziert anthropomorphe Antworten in Alltagssprache auf gestellte Fragen. Dazu nutzt es Beispiele, die in den riesigen Datensätzen gefunden wurden, auf die es Zugriff hat, und die es ihm ermöglichen, aufeinanderfolgende Wörter in Sätzen vorherzusagen. Kurz gesagt: Es ist in der Lage, mithilfe von „maschinellem Lernen“ statistische Muster in diesen riesigen Datenbanken zu finden. 

Dies ist nicht das, was Argumentation ausmacht, wie jeder Student, der Logik und Philosophiegeschichte studiert hat, wissen sollte – wie René Descartes im 17. Jahrhundert argumentierteth Jahrhundert ist das Denken eine Kombination aus intuitiven Einsichten und Schlussfolgerungen oder Schlussfolgerungen. Man beginnt mit einer intuitiven Einsicht – sagen wir, dass das Licht ausgegangen ist – und schließt daraus, dass entweder jemand es ausgeschaltet hat oder die Stromversorgung unterbrochen ist. Oder man kann (durch Schlussfolgerung) aus einer Reihe von Gegebenheiten (der intuitiven Einsicht) schließen, dass eine andere entweder wahrscheinlich oder unwahrscheinlich ist. Zu keinem Zeitpunkt greift man auf riesige Datenmengen zurück, die man nach Mustern mit Ähnlichkeiten durchsucht und auf dieser Grundlage vorausschauende Vorhersagen wagt.

Dennoch, wie man bei Informatikern wie z.B. feststellen kann Dr. Arvind Narayanan, Professor für Informatik an der Princeton University, sagt: „Menschen (wie mein Gesprächspartner) lassen sich leicht von einer KI wie ChatGPT täuschen, weil sie so ausgefeilt erscheint, und je ausgefeilter sie werden, desto schwieriger wäre es für Benutzer, ihre diesbezüglichen Mängel zu erkennen.“ Pseudo-Argumentation sowie ihre Fehler.

Wie Dr. Narayanan angibt, waren die Antworten von ChatGPT auf einige Informatikprüfungsfragen, die er gestellt hatte, falsch, aber sie waren so fadenscheinig formuliert, dass ihre Falschheit nicht sofort erkennbar war, und er musste sie dreimal überprüfen, bevor er sicher war, dass dies der Fall war war der Fall. Soviel zur gepriesenen Fähigkeit von ChatGPT, Menschen zu „ersetzen“.

Man sollte jedoch bedenken, dass bisher vergleichend diskutiert wurde, ob eine KI wie ChatGPT auf der Ebene der Intelligenz auf die gleiche Weise wie Menschen funktioniert, was sich auf Unterschiede wie Argumentation im Gegensatz zur Mustererkennung bezieht. usw. Man könnte die Frage natürlich auch in Bezug auf Unterlegenheit und Überlegenheit formulieren, und manche argumentieren so Menschen tauchen immer noch auf KI zu überlisten, auch wenn eine KI mathematische Berechnungen schneller durchführen kann als Menschen. 

Aber erst wenn man das Terrain verändert, werden die grundlegenden Unterschiede zwischen einem Menschen, ganzheitlich betrachtet, und einer KI, egal wie intelligent, aus der Perspektive gesehen. Dies wird von Menschen, die sich an der Debatte über Menschen im Gegensatz zu „künstlicher“ Intelligenz beteiligen, meist übersehen, und zwar aus dem einfachen Grund, weil Intelligenz so ist nicht alles was zählt

Um zu veranschaulichen, was ich meine, denken Sie an die Ereignisse zwischen dem Schachweltmeister Garry Kasparov und Deep Blue, dem „Supercomputer“ von IBM, im Jahr 1997. Nachdem er 1996 von Kasparov besiegt wurde, Deep Blue erzielte im folgenden Jahr den ersten Sieg über einen Menschen durch eine Maschine, und dann gab es auch – wie heute bei ChatGPT – allgemeine Klage über den angeblichen „Untergang“ der Menschheit, dargestellt durch die Überwindung Kasparovs durch einen Computer ( eine KI). 

Wie heute in Bezug auf ChatGPT war diese Reaktion sinnbildlich für den Fehler, den die überwiegende Mehrheit der Menschen bei der Beurteilung der Beziehung zwischen KI und Menschen begeht. Üblicherweise erfolgt eine solche Bewertung im Sinne der Kognition, indem beurteilt wird, wer „intelligenter“ ist – Mensch oder Maschine. Man sollte sich jedoch fragen, ob Intelligenz damals und heute das geeignete – geschweige denn das einzige und am besten geeignete – Maß für den Vergleich von Menschen und Computern (als Vertreter der KI) war. 

Verständlicherweise wurde damals überall über Kasparovs Demütigung durch die Maschine berichtet, und ich erinnere mich, dass ich auf einen solchen Bericht gestoßen bin, in dem der Autor ein scharfes Verständnis dafür zeigte, was ich meine, wenn ich mich auf das Recht beziehe, oder auf geeignete Maßstäbe für den Vergleich zwischen Menschen und Menschen KI. Nachdem ich die deprimierenden Details von Kasparovs historischer Niederlage rekonstruiert habe Deep Blue, griff dieser Autor auf eine humorvolle, aber wenig aussagekräftige Fantasie zurück.

Nach der symbolischen Niederlage des Menschen fabrizierte sie oder er das Team aus Ingenieuren und Informatikern, das sie entworfen und gebaut hatte Deep Blue gingen in die Stadt, um ihren epochalen Triumph zu feiern. Es wäre falsch, „den Sieg ihrer Maschine“ zu schreiben, denn streng genommen war es das menschliche Team, das mithilfe „ihres“ Computers einen Sieg errang.

Die Pointe war vorbereitet, als der Autor rhetorisch fragte, ob Deep BlueAuch er ging los, um die Stadt mit Hellrosa rot anzumalen, um ihre Eroberung zu genießen. Es erübrigt sich zu betonen, dass die Antwort auf diese rhetorische Frage negativ ist. Es folgte die Pointe, die das Offensichtliche zum Ausdruck brachte; nämlich, dass „Menschen feiern; Computer (oder Maschinen) tun es nicht.

Rückblickend fällt auf, dass dieser Autor eine Art Visionär war, der eine Fiktion nutzte, um die Tatsache hervorzuheben, dass Menschen und KI zwar über „Intelligenz“ (wenn auch unterschiedlicher Art) verfügen, dies jedoch der Fall ist nicht markieren die offensichtlichsten, irreduziblen Unterschiede zwischen KI und Menschen. Es gibt noch andere, weitaus entscheidendere Unterschiede zwischen Menschen und KI, von denen einige bereits erforscht sind hier und hier



Veröffentlicht unter a Creative Commons Namensnennung 4.0 Internationale Lizenz
Für Nachdrucke setzen Sie bitte den kanonischen Link wieder auf das Original zurück Brownstone-Institut Artikel und Autor.

Autor

  • Bert Olivier

    Bert Olivier arbeitet am Institut für Philosophie der Universität des Freistaats. Bert forscht in den Bereichen Psychoanalyse, Poststrukturalismus, ökologische Philosophie und Technikphilosophie, Literatur, Kino, Architektur und Ästhetik. Sein aktuelles Projekt ist „Thema verstehen in Bezug auf die Hegemonie des Neoliberalismus“.

    Alle Beiträge

Spenden Sie heute

Ihre finanzielle Unterstützung des Brownstone Institute kommt der Unterstützung von Schriftstellern, Anwälten, Wissenschaftlern, Ökonomen und anderen mutigen Menschen zugute, die während der Umwälzungen unserer Zeit beruflich entlassen und vertrieben wurden. Sie können durch ihre fortlaufende Arbeit dazu beitragen, die Wahrheit ans Licht zu bringen.

Abonnieren Sie Brownstone für weitere Neuigkeiten

Bleiben Sie mit dem Brownstone Institute auf dem Laufenden