Künstliche Intelligenz – Eine Orientierungshilfe

Ein Beitrag von

// Erschienen am

Eine Künstliche Hand als Symbolik für KI. Foto von Tara Winstead.

Künstliche Intelligenz (KI) ist seit einer Weile ein heiß diskutiertes Thema. KI-Systeme, soviel steht fest, verändern die Arbeitswelt. Wie so oft hat der aktuelle Hype aber auch ungesunde Seiten. Halbwissen und mangelndes Verständnis dessen, was denn KI-Systeme sind, bestimmen an vielen Stellen die Diskussionen. Teils macht sich Angst breit, teils wird derart glorifiziert, dass alles, was von einer KI kommt, als überlegen angepriesen wird. Insbesondere wenig differenzierende Rhetorik und eine Tendenz, Computersystemen menschliche Charakteristika und Fähigkeiten zuzuschreiben, verschlimmern die Situation. Das Verständnis der Tatsachen leidet enorm. Mythen und Halbwahrheiten vermischen sich so, dass „man am Ende nichts mehr versteht“. Nicht zuletzt mit der Folge, dass das mangelnde Wissen der Kunden und Nutzer gerne gewinnbringend ausgenutzt wird.

Starke und Schwache KI

Mir liegt KI-Bashing fern, denn KI-Systeme können äußerst hilfreich sein. Stattdessen möchte ich beim Aufräumen helfen und ein paar Unterscheidungen vorschlagen, um für mehr Verständnis sorgen zu können. Die erste Unterscheidung ist die zwischen sogenannter starker künstlicher Intelligenz und schwacher künstlicher Intelligenz. Starke KI – manchmal auch als künstliche allgemeine Intelligenz oder englisch Artificial Generel Intelligence (AGI) bezeichnet – ist zum jetzigen Zeitpunkt nur ein theoretisches Konzept. Ein Wunschtraum von menschenähnlicher KI, die die Fähigkeit zum selbstständigen Lernen besitzt. Ob und wann wir in der Lage sind, eine solche KI zu entwickeln, kann derzeit niemand einschätzen. Aktuell gibt es sie jedenfalls nicht.

Schwache KI – oder auch methodische KI genannt – ist das was wir heute in Form generativer KI, Chatbots und digitalen Assistenzsystemen haben. Sie basiert größtenteils auf statischen Modellen und ist nicht in der Lage, selbstständig zu lernen oder in irgend einer Form kreativ zu sein. Auch wenn die heutigen KI Systeme beeindrucken, von künstlicher allgemeiner Intelligenz sind sie weit entfernt. Alles was ich nachfolgend schreibe, bezieht sich demnach auch auf die heute verfügbare, schwache KI.

Die nächste, für das Verständnis von solcher KI wichtige Unterscheidung ist aus meiner Sicht fundamentaler Natur. Sie hilft uns ganz allgemein, unsere Welt besser begreifen zu können. Ich meine die Unterscheidung zwischen Kompliziert und Komplex.

Kompliziert und Komplex

Kern der Unterscheidung ist die systemtheoretische Betrachtung der Begriffe, in der kompliziertes zwar sehr umfangreich und vielschichtig sein kann, aber stets vollständig berechenbar und vorhersagbar ist. Zumindest prinzipiell. Kompliziert sind zum Beispiel alle technischen Geräte. Sie sind vollständig analysierbar und arbeiten deterministisch, also vorhersagbar. Sie überraschen uns nicht, zumindest nicht, wenn wir genug über das komplizierte „Ding“ wissen. Und das Wissen dazu kann prinzipiell immer erworben werden. Zum Beispiel, indem man die Bedienungsanleitung liest.

Komplexes entzieht sich der vollständigen Analysierbarkeit. Komplexes kann nicht mehr einfach durch die Zerlegung in seine Einzelteile vollständig beschrieben werden. Wir können stets von komplexem Verhalten überrascht werden, weil wir niemals genug Wissen ansammeln können, um das Verhalten zuverlässig vorherzusagen. Lebewesen sind komplexe Organismen. Menschliches Verhalten ist komplex. Es gibt dazu keine Bedienungsanleitung.

Dabei ist Komplexität nicht die Steigerung von Kompliziertheit. Auch durch das Zusammenschalten vieler komplizierter Systeme entsteht nichts komplexes. Es mag unüberschaubar, für Laien unverständlich und unvorhersagbar sein, das liegt aber nur am mangelnden Wissen der Betrachter*innen. Das Wissen dazu ist prinzipiell vorhanden. Man könnte auch sagen, Kompliziertheit ist ein Maß der Unwissenheit über ein (kompliziertes) System.

Mir geht es hier nicht um Deutungshoheit. Ich verwende die systemtheoretische Unterscheidung der Begriffe, weil sie hilfreich ist. Gerade in Bezug auf KI-Systeme mag der Begriff der Komplexität von Algorithmen, wie er in der theoretischen Informatik angewendet wird, für Verwirrung sorgen. Algorithmus-Komplexität beschäftigt sich dort hauptsächlich mit der Berechnung des Ressourcenverbrauchs von Algorithmen, wie Rechenzeit oder Speicherplatzbedarf. Davon ist hier nicht die Rede.

KI und Machine Learning

KI-Systeme sind – wie jedes Computersystem – kompliziert und arbeiten deterministisch. Ihre Stärke ist Effizienz. Sie bearbeiten sehr große Datenmengen in kurzer Zeit. Sie fassen zusammen, visualisieren, berechnen, analysieren, selektieren, klassifizieren und generieren. Aber eben, wie jedes Software-System, stets nachvollziehbar und vorhersagbar. Für die meisten von uns sind KI-Systeme aber so umfangreich und vielschichtig, dass wir nicht mehr ohne Weiteres verstehen können, wie ein Ergebnis zustande kommt. Die sprachliche Zuschreibung von menschlichen Charakteristika oder Tätigkeiten, wie „denken“, „entscheiden“ oder „lernen“, befeuern die Verwirrung.

Basis für KI-Systeme ist sogenanntes maschinelles Lernen (engl. Machine Learning). Man spricht auch von Expertensystemen, was daher rührt, dass diese Systeme für sehr spezifische (Teil-)Probleme zur Lösungsunterstützung quasi wie ein Experte eingesetzt werden. Beispiele sind Bild- oder Spracherkennung. Meist geht es dabei um Klassifikation, also „ist im Bild ein Auto“ oder „ist Person xy im Bild zu sehen“. Dazu benutzt man statistische Verfahren und parametrisiert damit Algorithmen so, dass sie anhand bestimmter Merkmale die Objekte klassifizieren können.

Beispiel Bilderkennung: Man extrahiert aus den Bilddateien Merkmale (engl. Features) wie Farben, Muster, Farbverteilung, Kanten, Kontraste oder Formen. Sie werden numerisch abgebildet und als sogenannte Feature-Vektoren gespeichert. Sie sind damit Datenpunkte in einem mehrdimensionalen Raum. Beim sogenannten „Training“ sind die richtigen Klassifizierungen der Bilder bekannt. Der Trainingsalgorithmus berechnet nun, je nach Verfahren, die Parameter des jeweiligen statistischen Modells so, dass die Datenpunkte möglichst gut in die gewünschten Klassen getrennt werden können. Also so etwas wie „Auto im Bild“ und „Kein Auto im Bild“. Will man viele verschiedene Personen oder Objekte damit erkennen, so muss man für jeden Typus ein eigenes Expertensystem erstellen und spezifisch „trainieren“. Tatsächlich ist dieses „Training“ also nicht üben, sondern die Berechnung von geeigneten Modell-Parametern. Das hat mit Intelligenz noch nicht allzu viel zu tun.

Nach dem „Training“ kann dann der Algorithmus auf unbekannte Daten angewendet werden, um diese mit dem zuvor „trainierten“ Modell zu klassifizieren. Je nach Daten und Verfahren ist das fast immer fehlerbehaftet. In unserem Beispiel gibt es dann Bilder, die zwar ein gesuchtes Objekt zeigen, die der Algorithmus aber als negativ einordnet (falsch-negativ). Und es gibt Bilder, die das gesuchte Objekt nicht zeigen, die der Algorithmus aber als positiv einordnet (falsch-positiv). Mit einer Analyse der falsch-positiven und der falsch-negativen bezogen auf die gesamte Datenmenge lässt sich die Güte der Modell-Algorithmus Kombination beurteilen. Sie hängt natürlich von vielen Faktoren ab. Grundsätzlich kann man sagen, dass die Güte tendenziell steigt, je größer die verfügbare Menge an Trainingsdaten ist. Auch das ist reine Mathematik. Es passiert hier nichts magisches und auch nichts komplexes. Der Begriff „Training“ ist irreführend und lenkt von der Tatsache ab, dass hier alles deterministisch abläuft.

Modelle und Algorithmen

Im verwendeten statistischen Verfahren steckt immer auch eine Hypothese darüber, wie die zu verarbeitenden Daten beschaffen sind, und wie man aus ihnen Schlussfolgerungen ziehen kann. Daher ist es wichtig, auf eine bestimmte Problemlage auch das „richtige“ Modell anzuwenden. Beispielsweise könnte man eine Gauß’sche Normalverteilung vermuten oder man geht davon aus, dass die extrahierten Merkmale sich mehr oder weniger gut voneinander abgrenzen. In der Bilderkennung haben sich beispielsweise Künstliche Neuronale Netze als sehr effektiv erwiesen. Sie sind besonders gut darin, zwischen sehr vielen, eng beieinander liegenden Merkmalen zu differenzieren.

In der medizinischen Diagnostik kommen oft sogenannte Hidden-Markov-Modelle zum Einsatz. Darin steckt die Hypothese, dass der Zustand „krank“ nicht direkt beobachtbar, also versteckt (engl. hidden) ist. Laufende Nase, Husten und Halsschmerzen sind beobachtbare Merkmale und deuten auf einen grippalen Infekt hin. Die Krankheit selbst kann man zunächst einmal nicht sehen. Kommen noch Kopf- und Gliederschmerzen hinzu, könnte es auch eine echte Grippe sein. In der Diagnostik werden dann alle relevanten beobachtbaren Merkmale in das zuvor „trainierte“ Hidden-Markov-Modell gebracht, um dann eine Wahrscheinlichkeit zu errechnen, dass eine bestimmte Krankheit existent ist.

Da es dabei um statistisch errechnete Wahrscheinlichkeiten geht, entstehen auch hier Fehldiagnosen. Zudem steckt in den diagnostischen Methoden selbst eine Ungenauigkeit, die auch ohne KI da ist. Selbst wenn ich eine laufende Nase und Halsschmerzen beobachten kann, ist nicht zu 100% gesichert, dass es sich um einen grippalen Infekt handelt. Der durch die KI ausgeführte Vorgang ist deterministisch und die Ergebnisse stets reproduzierbar. Keine Magie, keine Komplexität, keine Halluzinationen.

Dabei sind die statistischen Verfahren – oder auch Modelle – natürlich als Programmcode hinterlegt. Die statistischen Modelle werden also als Algorithmen implementiert. Zum besseren Verständnis halte ich es allerdings für hilfreich, zwischen Algorithmus und Modell logisch zu unterscheiden. Ein Algorithmus ist nichts anderes als eine Folge von Befehlen, die abgearbeitet werden. Sozusagen die Arbeitsanweisungen für die Hardware, die stur ausgeführt werden. Diese Anweisungen verändern sich nicht. Weder beim Training, noch bei der Anwendung. Es bedarf eines Software-Updates, um den Algorithmus zu verändern.

Was sich aber durch Training ändert, sind die Parameter, mit denen das konkrete statistische Modell beschrieben und eingestellt wird. So kann es durch ein erneutes Training vorkommen, dass sich bei gleich gebliebenem Algorithmus und bei gleichen Eingangsdaten die Ergebnisse verändern. Das ist sogar gewünscht und nennt sich Optimierung. Einige Parameter wurden durch das neue Training nun anders berechnet und führen somit zu veränderten Ergebnissen. Das auch nur, wenn zum Training unterschiedliches oder zusätzliches Trainingsmaterial verwendet wird. Training mit dem selben Trainingsmaterial führt auch zu identischen Ergebnissen. Die Ergebnisse sind also stets reproduzierbar, was auch eine Eigenschaft von deterministischen Systemen ist.

Wichtig ist noch zu wissen ist, dass die verwendeten Modelle fast alle nichtlinear sind. Das führt dazu, dass die Nachvollziehbarkeit der Ergebnisbildung, insbesondere für Laien, nicht mehr einfach möglich ist. Im Zusammenhang damit, dass logisch nicht zwischen Algorithmus und statistischem Modell unterschieden wird, entsteht dann der Eindruck, es passiere etwas nicht-deterministisches. Aber es wird noch besser…

Sprachliche Differenzierung - Mensch vs. Künstliche Intelligenz

Ein wenig sprachliche Differenzierung kann nicht schaden

Generative KI-Systeme und Sprachmodelle

Um KI-Systeme, wie wir sie heute kennen, zu realisieren, werden sehr viele Expertensysteme und Hilfssysteme zusammengeschaltet. Ein schönes Beispiel sind die generativen KI-Systeme wie ChatGPT, DeepSeek und Co. Sie verwenden sozusagen als Benutzerinterface sogenannte Large Language Models (LLM). Da sie mit riesigen Datenmengen trainiert wurden, beeindrucken sie damit, kohärente Texte als Eingabe verarbeiten und auch als Ausgabe erzeugen zu können. Dabei ist heutzutage fast immer nur die Rede von Modellen. Tatsächlich sind dies natürlich aus Algorithmen bestehende Computerprogramme, in denen sehr viele statistische Modelle zur Anwendung kommen.

Grob kommen in einem LLM folgende Schritte zum Tragen:

  • Tokenisierung: Der eingegebene Text („Prompt“) wird in Textteile zerlegt, das können einzelne Wörter, aber auch nur Wortteile sein.
  • Beim sogenannten Embedding werden ähnliche Tokens in sogenannten Vektoren numerisch abgebildet, damit man sie in einem Machine Learning Verfahren verarbeiten kann. Oft kommen dabei Künstliche Neuronale Netze zum Einsatz.
  • Im Vorhersage-Schritt wird dann berechnet, wie hoch die statistische Wahrscheinlichkeit ist, dass ein Token auf ein anderes folgt.
  • Bei der folgenden Dekodierung werden auf Basis der zuvor berechneten Wahrscheinlichkeiten Tokens wieder zu einem für menschen lesbaren Text zusammengefügt.

All das passiert deterministisch. Je nach Aufgabe werden natürlich noch sehr viele Programme zwischen- oder nachgeschaltet, um nicht nur Texte, sondern auch Bilder, Sound und Video zu erzeugen. Moderne KI-Systeme arbeiten dabei mit solch großen Datenmengen auch im Training, dass die Vorhersage mit den berechneten Wahrscheinlichkeiten für viele Anwendungsfälle erstaunlich gut funktioniert. Hinzu kommt, dass durch viele Nutzerinteraktionen ständig neue Daten geliefert werden, und die Modelle damit oft neu trainiert – optimiert – werden können. Festzuhalten bleibt deshalb aber auch, dass alle erzeugten Ergebnisse aus Inhalten bestehen, die bereits in der zugrunde liegenden Eingangsdatenbasis vorhanden sind. Es wird durch die KI nichts Neues erschaffen oder kreiert. Es handelt sich um Replikation.

Und noch ein relativ neuer Effekt ist zu beachten: Die heute verfügbaren, generativen KI-Systeme werden von vielen Menschen parallel genutzt. Entweder im eigenen Unternehmen oder weltweit im Internet. Das bedeutet, dass die Modelle theoretisch mit jeder Nutzereingabe neu trainiert bzw. optimiert werden können. Die Basis der Eingangsdaten, die für viele Systeme das Internet oder die firmeninterne Cloud ist, verändert sich täglich, stündlich, sekündlich. So entsteht eine Dynamik, die das Nachvollziehen der Ergebnisbildung für einzelne Nutzer praktisch unmöglich macht. Auch für Betreiber und Expert*innen ist das kaum möglich. Es entsteht so der Eindruck des Komplexen. Prinzipiell ist eine Nachvollziehbarkeit allerdings möglich.

Man könnte argumentieren, dass das Gesamtsystem aus dem Nutzerverhalten und der KI komplex ist. Das ändert aber nichts daran, dass die KI selbst ein – wenn auch extrem – kompliziertes System ist und deterministisch arbeitet. Man kann es vielleicht mit Straßenverkehr vergleichen: Das Problem Straßenverkehr ist kompliziert. Es basiert auf klaren Regeln und ist vorhersagbar. Nur durch den Umstand, dass Menschen als Verkehrsteilnehmer aktiv im System mitwirken, wird es komplex (lassen wir das Wetter einmal außen vor). Deshalb tun sich auch KI-basierte Fahrerassistenz-Systeme und selbstfahrende Autos nach wie vor schwer darin. Würde man nur noch selbstfahrende Autos einbringen und keine sonstigen Verkehrsteilnehmende haben, wäre es ein rein algorithmisch lösbares, weil kompliziertes Problem.

Entscheidungen

Bleiben wir beim Beispiel Auto mit KI-basierten Fahrerassistenz-Systemen und beleuchten kurz das Thema Entscheidung vs. Selektion. Echte Entscheidungen bedingen eine gewisse Unwissenheit. Wenn Sie sich fragen, „soll ich meine*n Partner*in heiraten?“, oder „soll ich dieses Auto kaufen?“, dann handelt es sich um Entscheidungen, denn Sie können kein Wissen haben, ob die Ehe hält oder ob Ihnen das Auto auch in 3 Jahren noch gefällt. Sie gehen ein Risiko ein. Das ist das Wesen von Entscheidungen. Hätten Sie das vollständige Wissen, bräuchten Sie nur die offensichtlich bessere Option zu wählen.

Ein KI-System entscheidet nichts, es selektiert. Per Definition hat jedes statistische Modell, das in einer KI zum Einsatz kommt, immer vollständige Daten. Wäre die Datenlage nicht vollständig, läge eine Fehlfunktion vor. Die KI würde nicht mehr (normal) weiterarbeiten. Aus den Daten berechnet sie eine Wahrscheinlichkeit und wendet eine Regel (einen Schwellwert o.Ä.) an, um dann die eine oder die andere Aktion einzuleiten. Das System selektiert also nur im Rahmen des fest programmierten Algorithmus nach den vorgegebenen Regeln und errechneten Werten. Kein Innehalten, kein Nachdenken, kein Zweifeln. Und vor Allem, kein plötzliches „es sich noch einmal anders überlegen“ weil das System eine „Idee“ hatte. Das ist ausgeschlossen.

Wenn die Bilderkennung in einem Auto beispielsweise ein Hindernis auf der Straße detektiert und das Fahrzeug daraufhin eine Notbremsung einleitet, dann passiert das, weil das zuvor in die Software des Fahrzeugs so einprogrammiert wurde. Das Fahrzeug entscheidet nichts. Es selektiert nur die auszuführende Aktion auf Basis der Eingangsdaten und des zuvor festgelegten Algorithmus, in dem ein zuvor festgelegtes Modell implementiert ist. Die Entscheidung, was passieren soll, treffen die Designer der Algorithmen lange bevor die eigentliche Situation eintritt.

Sie sehen, die im Alltagssprachgebrauch verwendeten Begriffe helfen oft nicht, ein gutes Verständnis zu schaffen. So wird auch von vielen Expert*innen vermittelt, eine KI verstünde, denke, entscheide oder halluziniere. Wir machen es uns da leider oft zu einfach. So entstehen Mythen, Halbwissen und auch Ängste und Bedenken, wo sie unbegründet sind. Man darf gerade Entwicklern und Betreibern von KI-Systemen ein gewisses Interesse daran unterstellen, dass das alles ein wenig wie Magie wirkt und unklar bleibt. Es hilft schlicht dem Geschäft. Lassen wir uns aber bitte nicht ins Bockshorn jagen, sondern lieber – auch wenn es anstrengend ist – in die Tiefe gehen und Verständnis schaffen. Ich hoffe jedenfalls, einen Beitrag dazu leisten zu können.