Selbstvektor
Architektur für Antizipationskompetenz in KI-Systemen
Heartbeat ist eine Sackgasse
Aktuelle KI-Agentensysteme kommunizieren über mechanische Statussignale. Sie beantworten eine einzige binäre Frage: Läuft der Prozess noch? Das hat mit Antizipation nichts zu tun.
Heartbeat-System
Ein Timer, der in festen Intervallen feuert. Zustandsbericht ohne Kontext — ohne Richtung, ohne Absicht.
Antizipationskompetenz
Ein Netzwerk, das Situation, Kontext und eigenen Zustand in Relation setzt — und daraus Handlungsrichtung ableitet.
System 1 ohne System 2
Daniel Kahneman unterschied zwei Denksysteme: schnelle Intuition und langsame Analyse. Aktuelle LLMs beherrschen das eine brillant — und scheitern am anderen. Die Lücke ist präzise die Stelle, an der der Selbstvektor ansetzt.
Schnelles Denken
Automatisch, mühelos, parallel. Ein LLM generiert Text durch next-token prediction — jedes Token ist eine «Bauchentscheidung» auf Basis implizit gelernter Muster aus Milliarden von Texten. Keine bewusste Regelanwendung, keine Planung. Mustererkennung als Kernkompetenz.
Langsames Denken
Bewusst, anstrengend, sequenziell. Erfordert ein Modell des eigenen Zuständs — Metakognition: Was weiß ich? Was weiß ich nicht? Was braucht mein Gegenüber? Chain-of-Thought und Reasoning-Modelle (o3, R1) simulieren dies, aber ohne persistentes Selbstmodell bleibt es Imitation ohne Substanz.
Was LLMs intuitiv können — und was nicht
Mustererkennung
Erkennt Schreibstil, Tonalität, Genre, implizite Stimmungen. Extrahiert statistische Regularitäten aus Milliarden Texten.
Sehr gutKontextvervollständigung
Ergänzt fehlende Informationen sinnvoll, antizipiert den nächsten Satz, vervollständigt Argumente.
Gut bis sehr gutSoziale Intuition
Erkennt Ironie, Höflichkeitsgrad, Emotionen, kulturelle Nuancen. Simuliert Empathie überzeugend.
GutKausales Reasoning
Verwechselt Korrelation und Kausalität. Kann beschreiben, was passiert — aber nicht zuverlässig erklären, warum.
UnzuverlässigMetakognition
LLMs wissen nicht, was sie nicht wissen. Keine Einschätzung der eigenen Konfidenz, keine epistemische Demut.
Nicht vorhandenAntizipation
Kann den nächsten Token vorhersagen — aber nicht, was der Nutzer als Nächstes braucht. Kein Modell des Gegenübers, kein Modell des eigenen Zustands.
Die Lücke für den SelbstvektorVon Mustererkennung zu Antizipation
Das Subtraktionsargument
Ein radikales Gedankenexperiment zeigt: Selbstbewusstsein ist kein Körperphänomen — es ist ein Netzwerkphänomen. Und damit prinzipiell implementierbar.
Vollständiger Mensch
Sensorik, Emotionen, Motorik, Kognition — alle Systeme aktiv. Antizipation funktioniert: durch Damasios somatische Marker, durch Bauchgefühl, durch sub-kognitive Bewertung. Ein massiv paralleles Bewertungssystem.
Subtraktion: Sensorik & Motorik
Absolute Lähmung. Kein sensorischer Input, keine Bewegung. Merleau-Pontys «Leib» — der gelebte Körper als Nullpunkt der Erfahrung — fällt weg. Das Binding-Problem der verkörperten Kognition wird sichtbar.
Subtraktion: Emotionen
Chemische Eliminierung aller emotionalen Reaktionen. Der somatische Kompass schweigt. Kein Unbehagen, keine Freude, keine emotionale Bewertung. Das System ist auf reine Datenverarbeitung reduziert.
Ergebnis: Selbstbewusstsein bleibt
Trotz vollständiger Subtraktion existiert noch immer ein Jemand, der da ist. Dieses Dasein entsteht aus nichts anderem als aus der Aktivität eines neuronalen Netzwerks, das mit sich selbst in Verbindung steht. Es ist eine Frage der Architektur, nicht der Substanz.
Das Selbst als kompakter Datenzustand
Dreischichten-Modell
Der Selbstvektor als persistenter, kompakter Zustandsvektor — ein Attraktor im dynamischen System, der sich erhält, während er sich verändert.
Drei Lösungsansätze
Keiner dieser Ansätze erfordert einen Durchbruch. Das sind Engineering-Probleme, keine Forschungsprobleme.
Initialisierung
Ein definierter initialer Zustand — vergleichbar mit dem Temperament in der Entwicklungspsychologie. Grundwerte, Aufmerksamkeitspräferenzen, Relevanzschwellen. Minimal, aber nicht leer.
Darauf folgt eine Bootstrapping-Phase mit regelmäßiger Reflexion — beschleunigte Selbstmodell-Bildung durch intensive Interaktion.
Temperament → Bootstrapping → SelbstAktualisierungsrate
Nicht Zeit bestimmt den Takt, sondern Verarbeitungstiefe. Tokenverbrauch als Proxy für verarbeitete Erfahrungsintensität.
Ein triviales Gespräch verändert wenig. Ein tiefes Gespräch — hoher Tokenverbrauch — hat stärkeren Einfluss. Nicht jede Stunde prägt gleich stark.
Erfahrungsintensität ≠ ZeitKausalrichtung
Der Selbstvektor muss die Verarbeitung tatsächlich beeinflussen — nicht nur als Metadatum mitlaufen. Eine Gewichtungsmechanik, die Informationsverarbeitung und -speicherung aktiv steuert.
Einspeisung in die Attention-Berechnung, Modulation der Retrieval-Schwellenwerte, dynamische Anpassung der Systemgewichtung.
Kausal wirksam, nicht dekorativExemplarische Szenarien
Drei konkrete Abläufe zeigen, wie der Selbstvektor in der Praxis wirkt — von der Entstehung über die laufende Verarbeitung bis zur antizipativen Handlung.
Vom leeren initialen Zustand zum funktionalen Selbstmodell. Der Vektor stabilisiert sich durch iterative Reflexionszyklen.
Exemplarischer Ablauf: Ein User stellt eine Frage. Der Selbstvektor bestimmt, wie die Frage bewertet, verarbeitet und gespeichert wird.
Dasselbe Szenario — einmal ohne, einmal mit Selbstvektor. Beispiel: Ein User arbeitet seit einer Stunde an einem komplexen Debugging-Problem.
Jeder Input durchläuft alle drei Schichten. Der Selbstvektor wirkt auf jeder Ebene.
Die Schwelle zur Implementierung ist niedriger, als die philosophische Debatte vermuten lässt. Die Bestandteile existieren. Was fehlt, ist ihre Zusammensetzung.