Prof. Dr. Joachim Denzler ist Spezialist für Computer Vision und hat eine KI mitentwickelt, die den emotionalen Gesichtsausdruck von Menschen automatisch erfasst (kleines Bild).

Der Traum von der menschlichen Maschine

Informatiker und KI-Entwickler Prof. Dr. Joachim Denzler im Interview
Prof. Dr. Joachim Denzler ist Spezialist für Computer Vision und hat eine KI mitentwickelt, die den emotionalen Gesichtsausdruck von Menschen automatisch erfasst (kleines Bild).
Foto: Anne Günther (Universität Jena)

Künstliche Intelligenz – meist nur kurz KI – ist in aller Munde. Spätestens seit generative KI-Tools wie ChatGPT für jedermann frei zugänglich sind, rückt das Thema KI vielen Menschen ins Bewusstsein. Dabei steckt KI schon längst in vielen alltäglichen Anwendungen: in Sprachassistenten, in Tools zur Bilderkennung oder Apps, die auf den persönlichen Geschmack zugeschnittene Buch- oder Filmempfehlungen geben. Doch wie »intelligent« ist KI wirklich? Was kann sie leisten und was (noch) nicht? Darüber spricht Informatiker und KI-Entwickler Prof. Dr. Joachim Denzler im Interview.

Interview: Ute Schönfelder


Was ist mit KI überhaupt gemeint?

Der Begriff der »Künstlichen Intelligenz« ist schon sehr alt. Er stammt aus den 1950er Jahren und bezeichnete ursprünglich die Idee, Maschinen zu entwickeln, die wie Menschen agieren können und auch die gleiche Leistungsfähigkeit besitzen wie Menschen. Wie wir wissen, gibt es solche Maschinen bis heute nicht. Und es wird sie auch so schnell nicht geben.

Trotzdem reden wir mehr denn je über KI.

Ja, nur wir bezeichnen damit etwas anderes. Aus der ursprünglichen Idee heraus, den Menschen nachzubilden, hat man in den 1960er Jahren angefangen, die Grundstrukturen des menschlichen Gehirns nachzubauen: künstliche neuronale Netze. Damit hat man große Fortschritte beispielsweise in der Mustererkennung und im Maschinellen Lernen machen können, aber an echte KI ist man damit nicht herangekommen.

Mittlerweile gibt es sogenannte tiefe neuronale Netze, das so genannte Deep Learning, die sehr leistungsfähig sind. Im Volksmund setzt man deren Leistungsfähigkeit mit dem Begriff KI gleich.

Handelt es sich dabei nicht um »echte« KI?

Nein. Deshalb nennen wir diese Formen »schwache KI«. Darunter fallen eigentlich alle heute verfügbaren KITools und -Technologien, von der Mustererkennung über die statistische Analyse von Daten, Maschinelles Lernen und Deep Learning bis zu autonomen Fahrzeugen oder Sprachassistenten.

Das sind alles Maschinen für definierte Aufgaben, die aber eben nur für diese Aufgaben geeignet sind. Zwar können wir heute immer mehr Aufgaben in solche Systeme integrieren und die Prozesse laufen mittlerweile sehr schnell und effizient ab, wodurch die Illusion entstehen kann, es handele sich um echte Intelligenz. Aber im Grunde bewegen wir uns immer noch im Bereich des Maschinellen Lernens und damit im Bereich der schwachen KI.

Wie wird »starke KI« aussehen und wann werden wir über sie verfügen?

Im Gegensatz zu der gerade beschriebenen schwachen KI, die für bestimmte Aufgaben eingesetzt wird, ist die starke KI universell einsetzbar. Sie kann praktisch jedes Problem lösen und das mindestens so gut wie der Mensch. Das bedeutet, sie kann eigenständig, flexibel und vorausschauend agieren. Allerdings wird diese »starke« KI wohl noch eine Weile auf sich warten lassen.

Wie versucht man sich ihr anzunähern?

Ein Weg, der momentan beschritten wird, ist die Entwicklung von KI-Modellen, die mit ganz verschiedenen Modalitäten trainiert werden. So wie wir Menschen über unterschiedliche Sinnesorgane verfügen, die unser Gehirn mit unterschiedlichen Reizen »füttern«, wird versucht, KI mit verschiedenartigen Text-, Bild-, Sensor-Daten zu trainieren, um ihr immer komplexeres »Wissen« zu vermitteln. Voraussetzung für starke KI wäre aber, dass die Maschine sich quasi eigenständig Wissen erwirbt und das auch auf andere Themenbereiche übertragen und anwenden kann.

Mit solchen Modellen wird man weiter große Fortschritte machen können, aber ob das schon der Schritt zur starken KI ist? Ich denke, eher nicht.

Inwieweit befassen Sie sich in Ihrer eigenen Arbeit mit KI?

Mein Team und ich, wir entwickeln selbst künstliche neuronale Netze. Ein Thema, mit dem wir uns dabei aktuell beschäftigen, ist die sogenannte kausale Inferenz. Wir versuchen also den Maschinen das »Ursache-Wirkungs-Prinzip« beizubringen.

Das heißt, KI soll nicht nur statistische Zusammenhänge in Datensätzen aufspüren, sondern herausfinden, wie diese ursächlich miteinander korrelieren. Zum Beispiel besteht ein Zusammenhang zwischen dem Verkauf von Eiscreme und Klimananlagennutzung. Ursächlich dafür ist aber die Außentemperatur.

Wie gehen Sie dabei vor?

Zunächst sieht das genauso aus, wie KI bisher funktioniert: Wir trainieren KI-Modelle mit bekannten Ursache- Wirkungsprinzipien aus den jeweiligen Anwendungsbereichen. Solche hybriden Modellierungsverfahren setzen wir beispielsweise im Rahmen der ELLIS Unit ein (Mit KI der Klimakrise begegnen).

Später sollen die Maschinen jedoch selbst Korrelation von Kausalität unterscheiden können. Wir als Menschen finden das in der Regel heraus, indem wir in ein System eingreifen. Wenn ich zum Beispiel wissen möchte, ob es in meinem Arbeitszimmer warm ist, weil ich die Heizung aufgedreht habe oder vielleicht, weil die Sonne durch das Fenster scheint, kann ich das herausfinden, in dem ich zunächst die Heizung abschalte und prüfe, ob sich die Raumtemperatur dadurch verändert. Oder ich verdunkele das Fenster und schaue, was passiert.

Um neuronalen Netzen ein Verständnis für Ursache und Wirkung beizubringen, nutzen wir Zeitreihen von Daten, beispielsweise die Wasserpegel in Flüssen. Die hängen von Wasserständen ihrer Zuflüsse und weiteren Faktoren ab. Diesen Zusammenhang versuchen wir der Maschine beizubringen, indem wir die Zeitreihen verändern. Daran kann das Modell lernen, ob eine Variable auf andere Variablen Einfluss nimmt oder nicht.

Welche Herausforderungen und Limitierungen sehen Sie beim Einsatz von KI?

Neben der technologischen Umsetzung, über die wir gerade schon gesprochen haben, sehe ich als Herausforderung den enorm hohen Energiebedarf von solchen Systemen. Das heutige Rechenparadigma, das die Systeme immer weiter wachsen müssen, um leistungsfähiger zu werden, lässt den Energieverbrauch ins schier Unermessliche steigen. Angesichts begrenzter Ressourcen und des Klimawandels ist das ein Problem, was wir unbedingt lösen müssen.

Ein weiterer Aspekt sind ethische Fragen. Schon heutige KI-Modelle sind so komplex, dass sie kein Mensch mehr vollständig versteht. Daraus ergibt sich die Frage nach der Glaubhaftigkeit der Ergebnisse, die uns eine KI anbietet, und wie wir damit umgehen, etwa im medizinischen Bereich, wenn es um Diagnosen und mögliche Therapieoptionen geht.

Aber auch in Gerichtsverfahren kommt teilweise schon KI zum Einsatz. In den USA wurde die Rückfallwahrscheinlichkeit von Straftätern mittels KI-Modellen bewertet. Da erhalten Personen aufgrund ihrer Zugehörigkeit zu einer bestimmten Ethnie eine andere Bewertung als andere und da bewegen wir uns in ethisch doch sehr kritischen Bereichen.

Was glauben Sie, was KI nie können wird?

Da wage ich lieber keine Prognose. Hätten Sie mich vor zehn Jahren gefragt, ich hätte die heute erreichten Entwicklungen nicht für möglich gehalten. Ich denke, dass wir uns auch jetzt noch gar nicht vorstellen können, was sich in den kommenden Jahren entwickeln wird. Deswegen bin ich mit einer solchen Prognose sehr vorsichtig.

Welches KI-Tool oder welche KI-Technologie wünschen Sie sich persönlich?

Eigentlich das, was ursprünglich einmal mit KI gemeint war: eine Art persönlichen Assistenten, eine Maschine, die mich bei allen Dingen im Alltag unterstützen kann. Das wäre schon praktisch.