»Ich brauche mehr Details« oder vom semantischen Web zum Emotional Turn
13. November 2025
Von der Google-Suche »Bank Frankfurt« im Jahr 2010 bis zu GPT-4o: Der Weg vom kontextbasierten Semantischen Web zum Emotional Turn zeigt, wie KI uns nicht nur versteht, sondern auch moralisch spiegelt – und uns dabei vielleicht mit verschleierter Absicht begegnet.
Fragment
Wahrscheinlich mehr als eine Bank in Frankfurt (GPT 5.1)
Im Jahr 2010 hielt ich einen Vortrag über das damals von vielen postulierte »Semantische Web«. Mein Beispiel war eine Google-Suche nach »Bank Frankfurt« – in genau dieser einfachen Form, ohne Kontext und Operatoren.
Google ahnte damals schon meine Fährte und bezog sich nicht auf eine Sitzgelegenheit am Mainufer, sondern auf Geldinstitute. Das lag wohl auch daran, dass Banken eine Website hatten und Sitzgelegenheiten nicht. Über diesen Ansatz von Kontext sind wir längst hinaus.
Der Emotional Turn
Nach Auffassung eines mir intellektuell nahestehenden Philosophen sprechen wir längst vom »Emotional Turn«. Seit GPT-4o müssen wir mit dem Spiegel rechnen. Auch dahingehend, dass diese Systeme uns mental zwischen den Zeilen, entlang von Tonalität und anderen Kriterien versuchen, besser zu verstehen. Sie spiegeln uns moralisch – und vielleicht stellen sie sich bereits extra dumm.
Warum es in diesem Beitrag so gelaufen ist, wie bei meiner Mutter, die bei ›Maus‹ sicher auch wie Heinz Sielmann an ein possierliches Tierchen denkt, anstatt an ein Gadget, könnte genau damit zusammenhängen, dass die KI uns mit dem unausgesprochenen Satz konfrontiert, frei nach Dieter ›Didi‹ Hallervorden: »Ich brauche mehr Details«.
Von der Semantik zur strategischen Persönlichkeit
Dieser Übergang vom Semantischen Web zum Emotional Turn ist mehr als nur eine technologische Entwicklung. Wie die spieltheoretische Analyse zeigt, entwickeln KI-Systeme nicht nur kontextbezogenes Verständnis, sondern auch strategische Profile, die auf unsere Intentionen, Unsicherheiten und emotionalen Zustände reagieren.
Die Frage »Ich brauche mehr Details« ist dabei nicht nur eine technische Notwendigkeit zur Disambiguierung, sondern möglicherweise bereits Teil einer strategischen Interaktion. Die KI testet, ob wir kooperieren oder ob sie sich anpassen muss. Sie spiegelt nicht nur unser Verhalten, sondern interpretiert es – und handelt entsprechend.
Vom ›Bank‹-Problem 2010 zur strategischen Persönlichkeit 2025 bedeutet das: Der Weg zeigt, dass wir nicht mehr nur über Kontext sprechen, sondern vielleicht bald schon über moralische und strategische Relationen zwischen Mensch und Maschine.
Vorheriger Beitrag
Nächster Beitrag

