Wovon ist die Rede?
Maschinelles Lernen (ML)
Bei maschinellen Lernverfahren erlernt ein Algorithmus durch Wiederholung, selbstständig eine definierte Aufgabe zu erfüllen. Anstatt einem vorprogrammierten Lösungsweg zu folgen, passen sich ML-Systeme dabei datengetrieben durch mathematische Optimierungsverfahren immer besser an das definierte Ziel an – sie werden »trainiert«.
Künstliche neuronale Netze (KNN)
Künstliche neuronale Netze sind von der Arbeitsweise biologischer Nervennetze inspirierte Computermodelle. Sie bestehen aus vielen miteinander verbundenen Knoten (»Neuronen«), die jeweils für sich und abhängig von bestimmten Parametern Berechnungen durchführen und deren Ergebnisse über diese Verbindungen austauschen. Solche Berechnungs-Netzwerke sind dadurch in der Lage, Muster und Beziehungen in Daten zu erlernen und im späteren Betrieb zu erkennen, so dass ein Lernverfahren auf der Grundlage von geeigneten »Trainingsdaten« die Netzparameter systematisch und optimal für diese Aufgabe einstellt. Sie werden vor allem für Bereiche verwendet, in denen symbolische KI-Ansätze an ihre Grenzen stoßen, darunter Bild- und Spracherkennung, Vorhersagemodelle und automatisierte Entscheidungsfindung.
Deep Learning
Unter dem Begriff Deep Learning versteht man das Trainieren sehr großer und komplexer Architekturen von KNNs (»tiefe künstliche neuronale Netze«), die aus vielen aufeinanderfolgenden »Neuronen«-Schichten aufgebaut sind und durch diesen hierarchischen Aufbau das Lösen von hochkomplexen Aufgaben ermöglichen. Ein weiterer bedeutender Unterschied zu gewöhnlichen KNNs ist, dass komplexere Muster in den Daten, welche zum Modellieren des Problems notwendig sind, automatisch mit erlernt werden, das sogenannte Repräsentationslernen.
Foundation Models (Fundamentalmodell)
Diese Modelle sind künstliche neuronale Netze, die auf sehr großen und vielfältigen Datensätzen mittels ML-Verfahren für eine allgemeine Aufgabe vortrainiert werden. Anschließend können sie mit Hilfe spezialisierter Datensätze für konkrete Anwendungen und Aufgaben optimiert werden (das sogenannte »Finetuning«).
Large Language Models (LLM)
Diese großen, rein auf Textdaten trainierten autoregressiven Sprachmodelle, zu denen auch ChatGPT gehört, nutzen Deep-Learning-Algorithmen der Wortvorhersage, um natürliche Sprache zu verarbeiten, zu verstehen und zu generieren. Auf eine gegebene Texteingabe (»Prompt«) werden vom LLM die Folgeworte als Textausgabe generiert. Durch die Komplexität der Architektur von LLMs und die Menge an Texten, mit denen diese trainiert werden, scheinen diese generierten Textausgaben häufig sehr plausibel für den Menschen, sind inhaltlich aber oft falsch.
Generative KI
Unter diesem Begriff werden ML-Modelle zusammengefasst, die neue Inhalte erstellen, wie Texte, Bilder, Audio oder Video. Die Modelle werden dafür mit großen passenden Datenmengen trainiert und »lernen« Inhalte entsprechend diesen Vorlagen nachzuahmen. Zu den generativen KI-Modellen gehören z. B. ChatGPT oder Midjourney, das auch zur Erstellung von Bildern in diesem Heft eingesetzt wurde.
Symbolische KI
Symbolische (»klassische«) KI repräsentiert Wissen über einen Bereich propositional, d. h. als Sammlung von Aussagen, die für diesen Bereich zutreffen. Die Aussagen selbst werden dabei über bedeutungstragende Symbolstrukturen dargestellt und um Berechnungsregeln ergänzt, die es einem Computer erlauben, damit in klar strukturierten und präzise beschreibbaren Bereichen Probleme ähnlich wie der Mensch zu lösen. Sie findet z. B. Anwendung in Form von sog. Expertensystemen, die Ärztinnen und Ärzte bei der Diagnose von Krankheiten unterstützen. Symbolische KI stößt in Bereichen an ihre Grenzen, für die eine propositionale Beschreibung fehlt und auch der Mensch nur schwer oder gar nicht verbalisieren kann, wie er dort Probleme löst. Sie wird daher oft durch Ansätze wie maschinelles Lernen ergänzt.