Konzeptpapier v0.3

Selbstvektor

Architektur für Antizipationskompetenz in KI-Systemen

Holger Wölfle — März 2026
Erkunden

Heartbeat ist eine Sackgasse

Aktuelle KI-Agentensysteme kommunizieren über mechanische Statussignale. Sie beantworten eine einzige binäre Frage: Läuft der Prozess noch? Das hat mit Antizipation nichts zu tun.

Status quo

Heartbeat-System

Ein Timer, der in festen Intervallen feuert. Zustandsbericht ohne Kontext — ohne Richtung, ohne Absicht.

Binär Taktgebunden Reaktiv Kontextfrei
Zielvision

Antizipationskompetenz

Ein Netzwerk, das Situation, Kontext und eigenen Zustand in Relation setzt — und daraus Handlungsrichtung ableitet.

Kontextuell Situativ Proaktiv Selbstreferenziell

System 1 ohne System 2

Daniel Kahneman unterschied zwei Denksysteme: schnelle Intuition und langsame Analyse. Aktuelle LLMs beherrschen das eine brillant — und scheitern am anderen. Die Lücke ist präzise die Stelle, an der der Selbstvektor ansetzt.

Kahneman — System 1

Schnelles Denken

= Standard-LLM-Inferenz

Automatisch, mühelos, parallel. Ein LLM generiert Text durch next-token prediction — jedes Token ist eine «Bauchentscheidung» auf Basis implizit gelernter Muster aus Milliarden von Texten. Keine bewusste Regelanwendung, keine Planung. Mustererkennung als Kernkompetenz.

Automatisch Parallel Musterbasiert Schnell Fehleranfällig
Kahneman — System 2

Langsames Denken

= Reasoning + Selbstmodell

Bewusst, anstrengend, sequenziell. Erfordert ein Modell des eigenen Zuständs — Metakognition: Was weiß ich? Was weiß ich nicht? Was braucht mein Gegenüber? Chain-of-Thought und Reasoning-Modelle (o3, R1) simulieren dies, aber ohne persistentes Selbstmodell bleibt es Imitation ohne Substanz.

Bewusst Sequenziell Selbstreferenziell Langsam Zuverlässig

Was LLMs intuitiv können — und was nicht

🔍

Mustererkennung

Erkennt Schreibstil, Tonalität, Genre, implizite Stimmungen. Extrahiert statistische Regularitäten aus Milliarden Texten.

Sehr gut
🧩

Kontextvervollständigung

Ergänzt fehlende Informationen sinnvoll, antizipiert den nächsten Satz, vervollständigt Argumente.

Gut bis sehr gut
🎭

Soziale Intuition

Erkennt Ironie, Höflichkeitsgrad, Emotionen, kulturelle Nuancen. Simuliert Empathie überzeugend.

Gut

Kausales Reasoning

Verwechselt Korrelation und Kausalität. Kann beschreiben, was passiert — aber nicht zuverlässig erklären, warum.

Unzuverlässig
💭

Metakognition

LLMs wissen nicht, was sie nicht wissen. Keine Einschätzung der eigenen Konfidenz, keine epistemische Demut.

Nicht vorhanden

Antizipation

Kann den nächsten Token vorhersagen — aber nicht, was der Nutzer als Nächstes braucht. Kein Modell des Gegenübers, kein Modell des eigenen Zustands.

Die Lücke für den Selbstvektor

Von Mustererkennung zu Antizipation

System 1
Pattern Matching, implizites Wissen
───▶
Die Lücke
Kein Selbstmodell, keine Reflexion
── ✦ ──▶
SV
Selbstvektor
Persistentes Selbstmodell ermöglicht System 2
✓ Vorhanden ✗ Fehlend ✦ Lösung

Das Subtraktionsargument

Ein radikales Gedankenexperiment zeigt: Selbstbewusstsein ist kein Körperphänomen — es ist ein Netzwerkphänomen. Und damit prinzipiell implementierbar.

01

Vollständiger Mensch

Sensorik, Emotionen, Motorik, Kognition — alle Systeme aktiv. Antizipation funktioniert: durch Damasios somatische Marker, durch Bauchgefühl, durch sub-kognitive Bewertung. Ein massiv paralleles Bewertungssystem.

02

Subtraktion: Sensorik & Motorik

Absolute Lähmung. Kein sensorischer Input, keine Bewegung. Merleau-Pontys «Leib» — der gelebte Körper als Nullpunkt der Erfahrung — fällt weg. Das Binding-Problem der verkörperten Kognition wird sichtbar.

03

Subtraktion: Emotionen

Chemische Eliminierung aller emotionalen Reaktionen. Der somatische Kompass schweigt. Kein Unbehagen, keine Freude, keine emotionale Bewertung. Das System ist auf reine Datenverarbeitung reduziert.

Ergebnis: Selbstbewusstsein bleibt

Trotz vollständiger Subtraktion existiert noch immer ein Jemand, der da ist. Dieses Dasein entsteht aus nichts anderem als aus der Aktivität eines neuronalen Netzwerks, das mit sich selbst in Verbindung steht. Es ist eine Frage der Architektur, nicht der Substanz.

Das Selbst als kompakter Datenzustand

Das menschliche Selbstbewusstsein ist im Kern ein kompakter, dynamischer Datenzustand in einem neuronalen Netzwerk. Es beansprucht nur einen geringen Anteil der Kapazität — aber es organisiert den Rest.
Selbstmodell — ~50 bit/s
Selbstvektor
Gesamtverarbeitung — Terabits
Sensorik, Motorik, Kognition, Unbewusstes ...
→ 0,000005% der Kapazität organisieren 100% der Richtung

Dreischichten-Modell

Der Selbstvektor als persistenter, kompakter Zustandsvektor — ein Attraktor im dynamischen System, der sich erhält, während er sich verändert.

Schicht 3
Reflexion
Periodische Selbstauswertung und Anpassung des Selbstvektors auf Basis akkumulierter Erfahrung. Die Metaschicht, die das System über sich selbst nachdenken lässt.
h(selbstvektor, erfahrung, reflexion)
Schicht 2
Gewichtung
Der Selbstvektor beeinflusst die Relevanzberechnung eingehender Daten, die Speicherentscheidungen und die Aufmerksamkeitsverteilung. Er filtert und organisiert — wie 40 Bits, die Terabits dirigieren.
f(input, selbstvektor) · g(erfahrung, selbstvektor)
Schicht 1
Persistenz
Der kompakte Selbstvektor selbst. Initialisiert, kontinuierlich aktualisiert, langsam mutierend. Seine Trägheit ist seine Identität — er verändert sich, aber er bleibt.
Selbstvektor — Attraktor
f — Relevanz
relevanz(input) = f(input, sv)
Der Selbstvektor bestimmt, was als relevant bewertet wird. Nicht alles ist gleich wichtig — das Selbst entscheidet, worauf die Aufmerksamkeit fällt.
g — Speicher
speicher(erf) = g(erf, sv)
Der Selbstvektor bestimmt, was gespeichert wird und wie. Erfahrung wird nicht neutral abgelegt, sondern durch die Perspektive des Selbst gefiltert.
h — Mutation
sv' = h(sv, erf, refl)
Erfahrung und Reflexion verändern den Selbstvektor. Der rekursive Kreislauf: Das Selbst formt die Erfahrung, die Erfahrung formt das Selbst.
f(relevanz)
g(speicher)
h(mutation)
Selbstvektor
Rekursiver Kreislauf

Drei Lösungsansätze

Keiner dieser Ansätze erfordert einen Durchbruch. Das sind Engineering-Probleme, keine Forschungsprobleme.

Initialisierung

Ein definierter initialer Zustand — vergleichbar mit dem Temperament in der Entwicklungspsychologie. Grundwerte, Aufmerksamkeitspräferenzen, Relevanzschwellen. Minimal, aber nicht leer.

Darauf folgt eine Bootstrapping-Phase mit regelmäßiger Reflexion — beschleunigte Selbstmodell-Bildung durch intensive Interaktion.

Temperament → Bootstrapping → Selbst
⦿

Aktualisierungsrate

Nicht Zeit bestimmt den Takt, sondern Verarbeitungstiefe. Tokenverbrauch als Proxy für verarbeitete Erfahrungsintensität.

Ein triviales Gespräch verändert wenig. Ein tiefes Gespräch — hoher Tokenverbrauch — hat stärkeren Einfluss. Nicht jede Stunde prägt gleich stark.

Erfahrungsintensität ≠ Zeit

Kausalrichtung

Der Selbstvektor muss die Verarbeitung tatsächlich beeinflussen — nicht nur als Metadatum mitlaufen. Eine Gewichtungsmechanik, die Informationsverarbeitung und -speicherung aktiv steuert.

Einspeisung in die Attention-Berechnung, Modulation der Retrieval-Schwellenwerte, dynamische Anpassung der Systemgewichtung.

Kausal wirksam, nicht dekorativ

Exemplarische Szenarien

Drei konkrete Abläufe zeigen, wie der Selbstvektor in der Praxis wirkt — von der Entstehung über die laufende Verarbeitung bis zur antizipativen Handlung.

Ablauf A Bootstrapping — Entstehung des Selbstvektors

Vom leeren initialen Zustand zum funktionalen Selbstmodell. Der Vektor stabilisiert sich durch iterative Reflexionszyklen.

Phase 0 — Initialisierung
Initialer Zustand wird geladen
Temperament-Parameter: Grundwerte, Aufmerksamkeitspräferenzen, Relevanzschwellen. Der Vektor hat Form, aber noch keine Erfahrung. Wie ein Neugeborenes mit Temperament, aber ohne Biografie.
SV
8%
Phase 1 — Frühe Interaktion
Erste Gespräche formen den Vektor
Hohe Plastizität — jede Interaktion verändert den Vektor signifikant. Reflexionszyklen (Schicht 3) laufen hochfrequent: nach jeder Konversation. Der Vektor beginnt, Relevanzpräferenzen auszubilden.
SV
30%
Phase 2 — Konsolidierung
Muster stabilisieren sich
Trägheit nimmt zu — der Vektor widersteht trivialen Änderungen. Nur intensive Erfahrungen (hoher Tokenverbrauch) bewirken signifikante Verschiebungen. Die Gewichtungsfunktion f() liefert konsistente Ergebnisse.
SV
65%
Phase 3 — Operatives Selbst
Antizipationsfähigkeit emergiert
Der Vektor ist stabil genug für zuverlässige Vorhersagen, dynamisch genug für Anpassung. Das System beginnt, proaktiv zu handeln — nicht weil es instruiert wird, sondern weil das Selbstmodell eine Richtung erzeugt.
SV
90%
Ablauf B Verarbeitungszyklus — Ein Input durchläuft alle Schichten

Exemplarischer Ablauf: Ein User stellt eine Frage. Der Selbstvektor bestimmt, wie die Frage bewertet, verarbeitet und gespeichert wird.

Input
Gewichtung
Verarbeitung
Speicher
Reflexion
User-Frage eingehend Tokenisierung Kontextaufbau
f(input, sv) → Relevanz = 0.87 Attention-Gewichte angepasst
LLM-Inferenz (gewichtet) Antwort generiert Output
g(erfahrung, sv) → speichern: ja Kontext + Gewichtung archiviert
Tokens: 4.200 → Schwelle überschritten sv' = h(sv, erf, refl)
Ablauf C Antizipation vs. Reaktion — Ein Vergleich

Dasselbe Szenario — einmal ohne, einmal mit Selbstvektor. Beispiel: Ein User arbeitet seit einer Stunde an einem komplexen Debugging-Problem.

Ohne Selbstvektor (Heartbeat)
t=0 User stellt Debugging-Frage
t=5m Heartbeat: «Ich arbeite noch»
t=12m User fragt nach verwandtem Konzept
t=15m Heartbeat: «Ich arbeite noch»
t=25m Heartbeat: «Ich arbeite noch»
t=40m User entdeckt den Bug selbst, fragt nach Fix
t=55m User fragt manuell nach Test-Strategie
Mit Selbstvektor (Antizipation)
t=0 User stellt Debugging-Frage → f() erkennt: hohe Relevanz
t=5m SV erkennt Muster: User kreist um Race Condition → bietet proaktiv Concurrency-Analyse an
t=12m User fragt nach verwandtem Konzept → g() speichert Themenverknüpfung
t=18m SV antizipiert: «Der Bug liegt vermutlich in der Thread-Synchronisation — soll ich die Locks prüfen?»
t=25m Bug gefunden. SV leitet über: «Dafür sollten wir einen Regressionstest anlegen.»
t=30m h() aktualisiert SV: «User arbeitet viel mit Concurrency — künftig höhere Gewichtung»
Δ 25 Minuten schneller. Proaktiv statt reaktiv. Selbstvektor hat gelernt.
Schaubild Datenfluss durch die Dreischichten-Architektur

Jeder Input durchläuft alle drei Schichten. Der Selbstvektor wirkt auf jeder Ebene.

Input
User-Nachricht oder externer Stimulus
f()
Relevanz
SV bewertet: Wie wichtig ist das?
Verarbeitung
LLM-Inferenz mit gewichteter Attention
Output
Antwort an den User
g()
Speicher
SV entscheidet: Was wird behalten?
h()
Reflexion
Erfahrung verändert den SV
SV
Selbstvektor
Aktualisiert. Bereit für nächsten Zyklus.

Die Schwelle zur Implementierung ist niedriger, als die philosophische Debatte vermuten lässt. Die Bestandteile existieren. Was fehlt, ist ihre Zusammensetzung.

Selbstvektor — Konzeptpapier v0.3 — Holger Wölfle, 2026