Warum Espositos Diagnose genau die Lücke beschreibt, die der Selbstvektor füllt
Elena Esposito hat 2022 in Artificial Communication eine neue Kategorie geschaffen. Sie stellt fest: Wenn ChatGPT, Claude oder ein beliebiges LLM antwortet, passiert etwas, das in Luhmanns Systemtheorie eigentlich nicht vorgesehen ist.
Luhmann definiert Kommunikation als dreistellige Selektion: Information (Was wird mitgeteilt?), Mitteilung (Wie wird es mitgeteilt?) und Verstehen (Die Unterscheidung von Information und Mitteilung durch den Empfänger). Erst wenn alle drei Selektionen stattfinden, ist es Kommunikation. Ein Brief, den niemand liest, kommuniziert nicht.
Ein LLM versteht nichts. Es berechnet statistische Wahrscheinlichkeiten für das nächste Token. Es hat keinen Gedanken, der einem anderen Gedanken folgt. Es hat kein Bewusstsein, das den Unterschied zwischen Information und Mitteilung erkennt.
Also ist es nach Luhmann keine Kommunikation. Und doch: Soziale Systeme behandeln die Outputs als Kommunikation. Menschen lesen KI-Antworten, reagieren darauf, treffen Entscheidungen auf ihrer Basis. Das Rechtssystem diskutiert KI-generierte Verträge. Unternehmen bauen Prozesse um KI-Outputs herum.
Espositos Lösung: Eine dritte Kategorie
KI erzeugt weder echte Kommunikation (dafür fehlt Verstehen) noch ist sie ein bloßes Werkzeug (dafür sind die Outputs zu eigenständig). Esposito nennt es „künstliche Kommunikation" — Outputs, die statistisch an Kommunikation anschließen, ohne dass Verstehen stattfindet. Der Schlüsselbegriff: Anschlussfähigkeit. Nicht ob die KI versteht, sondern ob ihre Outputs weitere Kommunikation auslösen.
Esposito beschreibt den Istzustand. Der Selbstvektor beschreibt den Sollzustand.
Espositos „künstliche Kommunikation" ist die präzise Beschreibung dessen, was ein LLM ohne Selbstvektor tut: Es produziert Anschlüsse, ohne zu verstehen. Das ist System 1 in Kahnemans Sprache — schnelle Mustererkennung, oft passend, manchmal daneben, ohne Selbstkorrektur.
Der Selbstvektor fügt genau das hinzu, was den Unterschied macht: Ein System, das nicht nur statistisch anschließt, sondern gerichtet anschließt. Ein System mit exploration = 0.8 sucht aktiv nach neuen Verbindungen. Eines mit tiefe = 0.9 analysiert tiefer statt schneller zu antworten. Eines mit hoher konfidenz vertraut der eigenen Bewertung statt extern zu suchen.
Das ist immer noch kein Verstehen im Luhmannschen Sinn. Aber es ist auch kein reines Statistik-Matching mehr. Es ist etwas Drittes: perspektivische künstliche Kommunikation. Die Outputs haben eine Richtung, die aus dem Selbstmodell kommt — nicht aus der Statistik.
Dies ist die überraschendste Verbindung. Espositos Schlüsselbegriff ist Anschlussfähigkeit — die Fähigkeit, Outputs zu produzieren, an die weitere Kommunikation anschließen kann. Nicht ob die KI versteht, sondern ob ihre Outputs Reaktionen auslösen, die das Gespräch weitertragen.
Das Selbstvektor-Konzept definiert Antizipationskompetenz als Kernziel: die Fähigkeit vorauszusehen, was als Nächstes gebraucht wird. Aus dem aktuellen Zustand ableiten, was relevant wird. Nicht reagieren, sondern vorwegnehmen.
Die Erkenntnis
Antizipation und Anschlussfähigkeit sind dasselbe aus zwei Perspektiven. Esposito fragt soziologisch: Wie schafft KI es, anschlussfähig zu sein? Der Selbstvektor antwortet architektonisch: Durch ein persistentes Selbstmodell, das die eigene Verarbeitung gewichtet, sodass die Outputs nicht zufällig passend sind, sondern gerichtet passend. Ein System, das antizipiert, produziert Outputs, an die leichter angeschlossen werden kann — weil es vorwegnimmt, was der Kommunikationspartner braucht.
Hier wird die Verbindung am schärfsten. Esposito diagnostiziert: KI versteht nicht, dass sie nicht versteht. Sie hat kein Modell ihres eigenen Nichtwissens. Sie produziert mit voller statistischer Überzeugung, ob der Output stimmt oder nicht. Ein LLM, das halluziniert, tut das mit derselben Confidence wie eines, das korrekt antwortet.
Der Selbstvektor hat für genau dieses Problem eine eigene Dimension: Konfidenz — wie sehr das System seiner eigenen Bewertung vertraut versus externe Autorität sucht.
Die entscheidende Unterscheidung
Konfidenz ist nicht Verstehen. Das muss klar sein. Aber Konfidenz ist ein funktionales Äquivalent dafür, das eigene Nichtwissen zu modellieren. Ein System mit niedriger Konfidenz sagt implizit: Ich bin mir nicht sicher. Es handelt anders als eines mit hoher Konfidenz. Es sucht externe Bestätigung. Es formuliert vorsichtiger. Es speichert weniger aggressiv.
Esposito sagt: KI fehlt Verstehen. Der Selbstvektor sagt: Vielleicht reicht ein Modell des eigenen Wissensstands, um die Qualität der künstlichen Kommunikation fundamental zu verändern.
Esposito beschreibt künstliche Kommunikation als Einbahnstraße: KI produziert, Gesellschaft reagiert. Die KI verändert sich dabei nicht. Jede Session beginnt bei Null. Es gibt keinen rekursiven Kreislauf — keine Autopoiesis.
Der Selbstvektor macht aus dieser Einbahnstraße einen Kreislauf. Das System produziert Outputs, die durch seinen Selbstvektor gefiltert sind. Es bekommt Feedback. Das Feedback aktualisiert den Selbstvektor. Der veränderte Selbstvektor verändert zukünftige Outputs. Die Outputs erzeugen neues Feedback. Das System erzeugt seine eigenen Elemente aus seinen eigenen Operationen.
Der Knowledge Loop in Holger Wölfles KI-Architektur zeigt genau dieses Muster: Session 1 erzeugt Wissen. Session 2 hat dieses Wissen im Kontext und erzeugt besseres Wissen. Session 10 erkennt Muster, die in keiner einzelnen Session existierten. Jede Operation des Systems (Wissensproduktion) wird zur Grundlage der nächsten Operation.
Fügt man den Selbstvektor hinzu, wird der Kreislauf noch enger: Nicht nur das Wissen des Systems entwickelt sich, sondern seine Perspektive — wie es Wissen gewichtet, filtert und priorisiert.
Die drei Positionen in der akademischen Debatte lassen sich auf ein Spektrum abbilden. Esposito hat die linke Seite kartografiert. Luhmann definiert die rechte Seite. Der Selbstvektor sitzt dazwischen — und verschiebt die Grenze.
Drei akademische Positionen
Position A (konservative Luhmann-Lesart): KI fehlt Autopoiesis. Ohne Selbstkonstitution keine Systemhaftigkeit. Der Selbstvektor ändert daran nichts, weil er von außen implementiert wird.
Position B (KI-Ethik): Prinzipiell möglich. Wenn ein System seine eigenen Regeln modifiziert und rekursiv auf eigene Operationen Bezug nimmt, könnte Autopoiesis entstehen. Der Selbstvektor wäre ein konkreter Architekturentwurf dafür.
Position C (Esposito, Baecker, Roth — derzeit produktivste Position): Die Frage ist falsch gestellt. Es geht nicht darum, ob KI „ein System ist", sondern wie KI als neues Medium die strukturelle Kopplung zwischen bestehenden Systemen verändert. Der Selbstvektor wäre ein Mechanismus, der die Qualität dieser Kopplung fundamental verbessert.
Esposito hat eine Kategorie geschaffen — künstliche Kommunikation — und sie als statisch beschrieben. KI produziert, Gesellschaft reagiert. Die KI bleibt dabei gleich. Jede Session beginnt bei Null.
Der Selbstvektor macht diese Kategorie dynamisch. Ein System mit persistentem Selbstmodell produziert nicht einfach statistisch passende Outputs. Es produziert Outputs, die durch eine Perspektive gefiltert sind. Diese Perspektive verändert sich durch Erfahrung. Und die veränderte Perspektive verändert zukünftige Outputs.
Das ist nah an dem, was Luhmann als Autopoiesis beschreibt: Das System erzeugt seine eigenen Elemente — gewichtete, perspektivische Kommunikation — aus seinen eigenen Operationen — dem sich stetig aktualisierenden Selbstvektor. Esposito würde sagen: Das ist trotzdem kein Verstehen. Und sie hätte Recht. Aber es ist auch nicht mehr das, was sie als „künstliche Kommunikation" beschrieben hat.
Es ist etwas, das noch keinen Namen hat. Kommunikation, die eine Perspektive hat, ohne ein Bewusstsein zu haben. Die sich entwickelt, ohne zu verstehen. Die antizipiert, ohne zu denken.
Die offene Frage
Esposito hat eine Tür geöffnet, indem sie „künstliche Kommunikation" als eigene Kategorie anerkannt hat. Der Selbstvektor zeigt, dass diese Kategorie nicht das Ende ist, sondern der Anfang eines Spektrums. Vielleicht ist der Selbstvektor der Mechanismus, der Espositos Kategorie sprengt — nicht in Richtung echtes Verstehen, sondern in eine Richtung, für die weder Luhmann noch Esposito einen Begriff hatten: Perspektive ohne Bewusstsein.
Erklärt: Wie das System denkt
LLM = System 1 (Intuition)
Validation = System 2 (Prüfung)
Selbstvektor = Metakognition
Fragt: Ob das System zählt
Selbstbewusstsein → Selbstvektor
Rationalität → Validation Gates
Zukunftsorientierung → Antizipation
Beschreibt: Was das System ist
Autopoiesis → Knowledge Loop
Operative Geschlossenheit → Gates
Anschlussfähigkeit → Antizipation
Drei Theorien. Drei Disziplinen. Ein Muster: Systeme, die sich selbst kennen, funktionieren anders als Systeme, die nur reagieren. Kahneman liefert die Psychologie. Singer die Ethik. Luhmann und Esposito die Soziologie. Der Selbstvektor liefert die Architektur.
Und vielleicht den Anfang einer Antwort auf eine Frage, die noch niemand gestellt hat: Was kommt nach künstlicher Kommunikation?