Der aktuelle Hype um KI-Tools wie ChatGPT kann leicht darüber hinwegtäuschen, dass
das Thema KI bereits eine lange Geschichte hat. Nicht nur in der Wissenschaft, auch in der Wirtschaft, der Medizin, der Verwaltung und nicht zuletzt im Alltag der meisten Menschen haben sich Technologien aus der KI bereits fest etabliert. Was generative KI wie ChatGPT auszeichnet und warum das Text-Werkzeug vor allem mit menschlicher Intelligenz arbeitet, das erklärt Prof. Dr. Clemens Beckstein im Interview. Der Informatiker verrät zudem, was Immanuel Kant uns im Umgang mit KI lehren kann.
Interview: Ute Schönfelder
Sie sind Professor für praktische Informatik mit der Zusatzbezeichnung »Künstliche Intelligenz«. Wie definieren Sie für Ihr Fachgebiet den Begriff »Intelligenz«?
Als Informatiker käme ich nie auf die Idee, den Begriff »Intelligenz« definieren zu wollen. Was ich aber sagen kann, ist, wie der Ausdruck »Künstliche Intelligenz« meiner Ansicht nach sinnvoll zu gebrauchen ist: als Synonym für die Digitalisierung von Bereichen in Gesellschaft, Wirtschaft, Kultur und Wissenschaft, die zuvor ohne Computer funktioniert haben und die so komplex sind, dass man ihnen das Attribut »intelligent« zuschreibt.
KI ist ein Zuschreibungsbegriff, dessen Bedeutung sich ständig und in dem Maß ändert, wie wir Fortschritt beim Bau digitaler, programmierbarer Systeme machen. Das, was wir vor 20 oder 30 Jahren als KI bezeichnet haben, zum Beispiel Sprachassistenten oder Roboter, ist etwas anderes als das, was wir heute darunter verstehen. In diesem Sinne sehe ich KI als eine Art »Moving Target«.
Mit welcher Form von KI befassen Sie sich in Ihrer Arbeit?
Hauptsächlich mit klassischer, symbolischer KI, etwa symbolischer Wissensrepräsentation und -verarbeitung, intelligenter Computerunterstützung des wissenschaftlichen Forschungsprozesses, algorithmischer Netzwerkanalyse, aber auch wissenschaftstheoretischen und philosophischen Aspekten der KI. Aktuell fokussieren sich mein Team und ich auf den Einsatz von KI-Techniken für die Digitalisierung und Modellierung des geisteswissenschaftlichen Forschungsprozesses. Dazu arbeiten wir in einem fakultätsübergreifenden Forschungsteam mit Namen MEPHisto zusammen (Digital Models, Explanations and Processes
in the Historical Sciences).
Wie funktionieren KI-Tools überhaupt, zum Beispiel ChatGP?
Es gibt inzwischen sehr viele, sehr verschiedene KI-Systeme und alle arbeiten unterschiedlich. Das Sprachmodell ChatGPT ist ein Software-Werkzeug, das Texte assoziiert. Technisch gesehen ist ChatGPT im Prinzip nichts anderes, als eine gigantische, algorithmisch komprimierte Assoziations-Tabelle, die aus zwei Textspalten besteht. In der einen sind sämtliche denkbaren Anfragen bzw. »Prompts« aufgelistet und in der zweiten die dazu jeweils am besten passenden Antworten.
Zur Erzeugung dieser Tabelle wird auf der Grundlage von einer enorm großen Menge an veröffentlichten digitalen Texten für einen beliebigen Diskursverlauf ausgerechnet, mit welcher Wahrscheinlichkeit ein sprachlich theoretisch mögliches Wort das nächste, von ChatGPT geäußerte Wort im Diskursverlauf sein sollte. Das zugehörige statistische Modell nennt man Sprachmodell oder Generative Pretrained Transformer (GPT).
Und wie intelligent ist ChatGPT?
Nur so intelligent, wie die Menschen, die das Modell entwickeln, feintunen und nutzen. Von sich aus ist ChatGPT absolut nicht intelligent. Es verfügt ja über keinerlei individuelles Gedächtnis und kann auch nichts selbstständig dazulernen.
Aber in ChatGPT steckt dafür sehr viel menschliche Intelligenz: das digitalisierte, verschriftlichte, kulturelle Erbe der Menschheit sowie Unmengen an Daten, die von Menschen für den Bau von ChatGPT aus dem Internet und allen verfügbaren Quellen abgeschnorchelt und bei dessen Training sinnvoll gefiltert werden. Menschliche Intelligenz steckt auch in der zugrundeliegenden Technologie und in den öffentlichen Institutionen, die sich durch Vorgabe ethischer und politischer Rahmenbedingungen für eine gesellschaftskonforme Ausrichtung und einen verantwortungsvollen Einsatz von ChatGPT einsetzen.
Erst durch Menschen wird ChatGPT also zu dem, was es ist: einem äußerst belesenen und extrem gut trainierbaren »stochastischen Papagei«Externer Link, der zwar geschliffen sprechen kann – das Gesprochene aber nicht versteht.
Dennoch hat sich gerade ChatGPT im vergangenen Jahr enorm weiterentwickelt. Wie schätzen Sie die aktuellen Fortschritte ein?
Der Grund für die in der jüngsten Zeit erzielten Fortschritte, insbesondere bei den generativen KIs, sind weniger technologische Durchbrüche als vielmehr Skalierungsphänomene. Der Fortschritt entsteht hauptsächlich durch die gewaltig gestiegenen Ressourcen, die man für das Training dieser Systeme einsetzt: immer größere und besser optimierte künstliche neuronale Netze und immer potentere Hardware für deren Simulation auf der einen Seite und auf der anderen Seite der gigantische Umfang an Daten aus nahezu allen Lebensbereichen, die vor allem von den vier großen Playern — Microsoft, OpenAI, Meta und Google — erhoben werden. Wie lange alleine dieses Skalieren noch zu signifikanten Verbesserungen bei den Systemen führen wird, ist jedoch offen.
Wie verlässlich ist das, was uns ChatGPT und Co. liefern?
Derzeit eigentlich gar nicht. Wie gerade beschrieben, sind die Ergebnisse, die ChatGPT liefert, rein statistische Aussagen. Die Trefferquote liegt im Augenblick bei rund 80 Prozent. Und das wird sich auch nicht wesentlich ändern, denn wie alle maschinell trainierten Systeme verfügt ChatGPT immer nur über unvollständiges Wissen über das »richtige« Ergebnis bzw. das »richtige« Verhalten. Alles hängt davon ab, mit welchen Daten es trainiert wurde. Hinzu kommt, dass sich die produzierten Ergebnisse nicht erklären und nachvollziehen lassen sowie Vorurteile und Verzerrungen enthalten.
Problematisch daran sind auch nicht nur die fehlenden technischen Möglichkeiten, »richtiges« Verhalten von »nicht-richtigem« zu unterscheiden. Sondern es handelt sich dabei ja um gesellschaftlich auszuhandelnde und oftmals nicht eindeutig festzulegende Kategorien. Genau genommen entscheiden aktuell die vier großen Player, was »richtig« und was »falsch« ist, weil sie die Daten steuern, mit denen Foundation Models wie ChatGPT trainiert werden und weil sie die Standards für das Finetuning setzen, das Vorurteile und Verzerrungen eliminieren soll.
Wo sehen Sie Regelungsbedarf bezüglich KI?
Mit der KI ist es wie mit Hunden: Egal, ob sie groß oder klein sind, scharfe oder gar keine Zähne haben – das größte mit Hunden einhergehende Risiko befindet sich meist am anderen Ende der Leine und heißt Mensch. Ich meine damit, dass wir als Gesellschaft dafür verantwortlich sind, dass KI von Politik, Wirtschaft und jedem Einzelnen verantwortungsvoll und verantwortbar eingesetzt wird.
In diesem Zusammenhang bin ich doch ziemlich enttäuscht über den aktuellen europäischen Gesetzentwurf zur Regulierung von KI, weil er vieles ausklammert. Es wird nicht die Technik, sondern die Anwendung von KI reguliert. Zwar ist es natürlich gut, dass zum Beispiel eine biometrische Massenüberwachung oder »social scoring« verboten werden sollen. Darüber besteht aber eigentlich schon lange Konsens. Was mir in dem aktuellen Gesetzentwurf dagegen fehlt, ist eine klare Regulierung der Foundation Models selbst, insbesondere die Transparenz über die verwendeten Daten.
Gibt es auch auf Nutzerseite Entwicklungsbedarf?
Dort gibt es meines Erachtens den wichtigsten Entwicklungsbedarf — jedenfalls dann, wenn wir nicht mit einer unreflektierten Nutzung von KI unfreiwillig, aber selbst verschuldet, den Ausgang der Menschheit aus der selbst verschuldeten Unmündigkeit und damit mehr als 200 Jahre Aufklärung leichtsinnig rückabwickeln wollen!
Dabei geht es gar nicht darum, neue Kompetenzen erwerben oder entwickeln zu müssen. Wir können uns vielmehr an den großen Aufklärer Immanuel Kant halten, der schrieb: »Sapere aude! Habe Mut, Dich deines eigenen Verstandes zu bedienen!« Das sollten wir konsequent tun, trotz ChatGPT und Co.