Robert Klatt
Die Künstliche Intelligenz (KI) ChatGPT kann Menschen in vielen Bereichen übertreffen. Ein Forscher ist trotzdem überzeugt, dass das Large language model (LLM) aufgrund bestimmter Grenzen nicht wirklich „intelligent“ ist.
Cincinnati (U.S.A.). In den letzten Monaten haben Studien belegt, dass das Large language model (LLM) ChatGPT Studenten bei Prüfungen übertreffen und wissenschaftliche Texte schreiben kann, die Linguisten nicht von menschlichen Texten unterscheiden können. In der Allgemeinheit existiert deshalb die Annahme, dass die Künstliche Intelligenz (KI) bereits so intelligent ist wie der Mensch und die Gesellschaft revolutionieren kann.
Anthony Chemero, Professor für Philosophie und Psychologie an der University of Cincinnati (UC), hat nun ein Paper publiziert, laut der das Verständnis von KI bei vielen Menschen fehlerhaft ist. Eine KI wie ChatGPT kann laut Chemero demnach nicht auf gleiche Weise intelligent sein wie Menschen, obwohl sie tatsächlich intelligent ist und sogar lügen kann.
Laut der Publikation im Fachmagazin Nature Human Behaviour ist ChatGPT lediglich ein LLM, das mit großen Datenmengen aus dem Internet trainiert wurde. Die Trainingsdaten der KI enthalten somit viele der Vorurteile der Menschen, die unkontrolliert übernommen wurden.
„LLMs erzeugen beeindruckenden Text, erfinden aber oft Dinge aus dem Nichts. Sie lernen, grammatisch korrekte Sätze zu produzieren, benötigen aber viel, viel mehr Training als Menschen. Sie wissen eigentlich nicht, was die Dinge, die sie sagen, bedeuten. LLMs unterscheiden sich von menschlicher Kognition, weil sie nicht verkörpert sind.“
In der Wissenschaft werden Fehlinformationen der KI, etwa frei erfundene Fakten, als Halluzination bezeichnet. Die Fehler entstehen, weil LLMs Sätze bilden, indem sie wiederholt das statistisch wahrscheinlichste nächste Wort hinzufügen. Ob die Sätze wahr sind, überprüfen ChatGPT und ähnliche Techniken nicht. Chemero ist das deshalb der Ansicht, dass statt Halluzinieren die Bezeichnung „Bullsh*tting“ sinnvoller ist.
Zudem ist der Forscher der Ansicht, dass LLMs nicht intelligent sind, wie Menschen intelligent sind, weil Menschen verkörpert sind. Eine echte Intelligenz ist laut ihm nur bei lebenden Wesen möglich, weil diese immer von anderen Menschen und materiellen und kulturellen Umgebungen umgeben sind und von ihnen beeinflusst werden. Seine Kernaussage ist, dass LLMs nicht intelligent sind, wie Menschen, weil sie sich einen Dreck um ihre Ergebnisse scheren („don’t give a damn“). Menschen haben diese negative Eigenschaft laut Chemero hingegen nicht.
„Dinge sind uns wichtig. Wir sind unserem Überleben verpflichtet. Wir kümmern uns um die Welt, in der wir leben.“
Nature Human Behaviour, doi: 10.1038/s41562-023-01723-5