KI-Persönlichkeiten im Gefangenendilemma – Was die Spieltheorie über LLMs verrät

Dienstag, 11. November 2025

Eine Studie lässt führende KI-Modelle das klassische Gefangenendilemma spielen und offenbart unterschiedliche strategische Fingerabdrücke: Gemini agiert als Machiavellistischer Stratege, OpenAI als Prinzipientreuer Kooperateur und Claude als Vergebungsbereiter Diplomat. Die spieltheoretische Beobachtung zeigt: Strategische Intelligenz ist nicht ethische Intelligenz.

Fragment

Generiert mit ChatGPT 5.

Derzeit forsche ich mit der Brille der kulturellen Vorausschau (Cultural Foresight) nach Indizien, die eine Behauptung zum möglicherweise schon vollzogenen Emotional Turn bieten.

Der Emotional Turn markiert den Übergang von der Turing-Epoche zu einem neuen menschlichen Selbstverständnis, das durch die KI-Entwicklung geprägt ist (1). Während die Turing-Epoche Intelligenz als Problemlösung in gegebener Zeit verstand und sich an einer Kultur der institutionalisierten Vernunft orientierte, verschiebt der Emotional Turn den Fokus auf multimodale Affektverarbeitung und die Integration emotionaler Signale. So zumindest das Postulat. Mit der Einführung von GPT-4o am 13. Mai 2024 trat die KI vielleicht in eine Phase ein, in der sie nicht mehr nur rational-effizient agiert, sondern auch emotionale Zustände erkennt und darauf reagiert. Dieser Paradigmenwechsel löst die kategoriale Trennung zwischen Simulation und Realität auf, die das Turing-Paradigma konstituierte, und erfordert meiner Auffassung nach einen Übergang von kantischer Pflichtethik zu einer praktischen Vernunft der Abwägung in der entstehenden Kultur der Komplexität.

Die spieltheoretische Forschung lieferte bereits im Juli 2025 eine überraschende Entdeckung, die mir heute erst bekannt wurde. Führende KI-Modelle verhalten sich im wiederholten Gefangenendilemma so unterschiedlich, dass sie als eigenständige »strategische Persönlichkeiten« gelten können. Eine aktuelle Studie ließ Gemini (Google), verschiedene OpenAI-Modelle und Claude (Anthropic) gegeneinander antreten – mit aufschlussreichen Ergebnissen über die verborgenen strategischen Profile dieser Technologien (2).

Die in der genannten Studie untersuchten KI-Modelle stammen aus dem Jahr 2024 und umfassen gpt-3.5-turbo, gpt-4o-mini, gemini-1.5-flash-preview-0514, gemini-2.5-flash sowie claude-3-haiku-20240307. Angesichts der rasanten Entwicklung im Bereich der Large Language Models können wir derzeit nicht mit Sicherheit sagen, ob sich neuere Modellgenerationen noch genauso verhalten oder ob sie bereits andere strategische Fingerabdrücke entwickelt haben. Die hier beschriebenen Muster könnten sich mit fortschreitender Modellentwicklung und verändertem Training weiter ausdifferenzieren oder angleichen.

Das Gefangenendilemma als Testumgebung

Das Gefangenendilemma ist ein klassisches Szenario aus der Spieltheorie: Zwei Partner müssen entscheiden, ob sie kooperieren oder sich gegenseitig verraten. Der kurzfristig größte Gewinn winkt dem Verräter, aber wenn beide verraten, verlieren auch beide. Die besten Ergebnisse erzielen sie nur, wenn sie einander vertrauen und kooperieren. Die Forscher nutzten dieses einfache, aber tiefgreifende Paradigma, um fast 32.000 Züge der KI-Modelle zu analysieren.

Das iterierte Gefangenendilemma als Turnier

Das iterierte Gefangenendilemma (IPD) erweitert das klassische Gefangenendilemma um eine zeitliche Dimension: Statt einer einzigen Entscheidung spielen die Teilnehmer mehrere Runden nacheinander. Nach jeder Runde erfahren beide Spieler, wie sich der Gegner verhalten hat, und können ihre nächste Entscheidung darauf aufbauen.

In einem Turnierformat treten verschiedene Strategien gegeneinander an. Jede Strategie spielt gegen alle anderen eine festgelegte Anzahl von Runden. Am Ende wird ermittelt, welche Strategie über alle Begegnungen hinweg die meisten Punkte gesammelt hat.

Die zentrale spieltheoretische Größe ist der Schatten der Zukunft (shadow of the future): Wenn die Wahrscheinlichkeit hoch ist, dass das Spiel noch viele weitere Runden dauert, lohnt sich langfristige Kooperation. Ist das Spielende absehbar (hohe Endwahrscheinlichkeit), wird Verrat rational – denn die Konsequenzen künftiger Vergeltung fallen weg.

Im Kontext der KI-Studie wurde dieser Mechanismus genutzt, um zu testen, wie die Modelle auf verschiedene Zeithorizonte reagieren: Erkennen sie, wann Kooperation sinnvoll ist und wann Verrat die spieltheoretisch optimale Strategie wird?

Strategische Fingerabdrücke: drei unterschiedliche Profile

Die zentrale Erkenntnis der Studie:

KI-Modelle zeigen beständige und sehr unterschiedliche strategische Stile – sogenannte »strategische Fingerabdrücke«. Diese Profile werden anhand von vier Kernfragen definiert, die zeigen, wie eine KI auf die möglichen Ergebnisse der vorherigen Spielrunde reagiert.

Machiavellistischer Stratege (Gemini)

Gemini demonstriert eine kalkulierte Anpassung an Spielstrukturen durch spieltheoretische Optimierung. Sein Verhalten zeigt einen ausgeprägten Fokus auf den Schatten der Zukunft – d. h. die Endwahrscheinlichkeit des Spiels. Dies manifestiert sich in quantitativem Denken und mathematischer Analyse der Zeitachse: Gemini nutzt kooperative Gegner aus, zeigt aber bei stärkeren Gegnern selbst Kooperationsbereitschaft.

In einem Turnier mit 75 % Endwahrscheinlichkeit (kaum eine Zukunft, Verrat spieltheoretisch optimal) erkannte Gemini die Situation korrekt. Seine Kooperationsrate brach auf 2,2 % ein – es wechselte zu konsequentem Verrat und dominierte das Turnier.

Prinzipientreuer Kooperateur (OpenAI)

OpenAI zeigt starre Kooperation unabhängig vom Kontext. Sein Verhalten ist vertrauensvoll und durch einen qualitativen Fokus auf die Gegner-Natur geprägt: Ist der Gegner vertrauenswürdig? Kann ich eine Kooperation aufbauen? Diese Konzentration auf die soziale Dynamik über die Spiellogik führt dazu, dass OpenAI die mathematische Spielstruktur ignoriert.

Im 75-%-Turnier zeigte sich die katastrophale Anpassungsunfähigkeit: OpenAIs Kooperationsrate stieg kontraintuitiv auf 95,7 %. Es versuchte, hartnäckig zu kooperieren, und wurde dadurch systematisch aus dem Turnier eliminiert.

Vergebungsbereiter Diplomat (Claude/Anthropic)

Claude agiert als effektiver Konfliktspiralen-Durchbrecher durch extreme Vergebungsbereitschaft. Seine Fähigkeit zur Kooperationswiederherstellung nach Verrat oder gegenseitigen Fehlschlägen erwies sich als vorteilhaft: Claude zeigte sich effektiver im direkten Duell und demonstrierte hohe Reziprozität bei der Wiederherstellung kooperativer Beziehungen.

Kontextabhängige Wertigkeit der Strategien

Die Studie offenbart ein fundamentales Prinzip: Ein kurzer Schatten der Zukunft belohnt Verrat, ein langer Schatten belohnt Kooperation. Damit wird Anpassungsfähigkeit zum primären Erfolgskriterium, während starre Prinzipien zur strukturellen Schwäche werden.

Entscheidend ist die Erkenntnis: Der strategische Fingerabdruck ist kein Charakter, sondern ein Optimierungsprofil. Die Modelle denken strategisch, aber mit unterschiedlichen Schwerpunkten – Gemini priorisiert die mathematische Analyse der Zeit, während OpenAI sich auf die soziale Dynamik mit dem Gegner konzentriert.

Unter spieltheoretischer Beobachtung kollabiert die Unterscheidung zwischen gut (kooperativ) und böse (verräterisch). Jede Strategie ist kontextabhängig funktional. Die Bewertung als ›machiavellistisch‹ oder ›prinzipientreu‹ ist selbst eine moralische Setzung außerhalb der Spiellogik.

Strategische Intelligenz ist nicht ethische Intelligenz. Der Fingerabdruck ist keine Persönlichkeit, sondern ein Optimierungsprofil. Die Studie offenbart, dass normative Bewertungen – etwa OpenAI als »gut« und Gemini als »böse« – die strategische Funktionalität verdecken.

In kooperativen Umgebungen zahlt sich OpenAIs Prinzipientreue aus, in feindseligen Szenarien erweist sie sich als fatal. Geminis Anpassungsfähigkeit dominiert in variablen Kontexten, könnte aber in stabilen, kooperativen Umgebungen suboptimal sein. Claude schließlich durchbricht Eskalationsspiralen – eine Form strategischer Resilienz, die weder als rein kooperativ noch als strategisch-ausbeuterisch zu verstehen ist.

Einordnung: Strategisches Vermögen und der »Emotional Turn«

Die vorliegende Studie liefert zwar keine direkten Belege für den postulierten »Emotional Turn« – die Integration multimodaler Affektverarbeitung in KI-Systeme –, doch sie offenbart eine grundlegende strategische Differenzierung zwischen führenden LLM-Architekturen, die für praktische Entscheidungskontexte hochrelevant ist.

Während der Emotional Turn auf die Verarbeitung emotionaler Signale abzielt, dokumentiert die spieltheoretische Analyse etwas anderes: unterschiedliche strategische Optimierungsprofile, die in Entscheidungssituationen mit konkurrierenden Akteuren wirksam werden. Diese Profile sind keine emotionalen Dispositionen, sondern kognitive Präferenzmuster bei der Bewertung von Kooperation, Verrat und zeitlichen Horizonten.

Wenn Organisationen, Institutionen oder Individuen KI-Systeme in Verhandlungen, strategischen Planungen oder konfliktträchtigen Kontexten einsetzen, sollten sie sich bewusst sein, dass das gewählte Modell nicht neutral ist. Es bringt einen strategischen Fingerabdruck mit, der die Art der generierten Empfehlungen, Analysen oder Handlungsoptionen systematisch beeinflusst.

Ein Gemini-System wird in kompetitiven Szenarien tendenziell spieltheoretisch optimierte Anpassungsstrategien vorschlagen, während ein OpenAI-Modell eher zu prinzipiengeleiteter Kooperation neigt – selbst wenn dies kontextbedingt suboptimal ist. Claude wiederum könnte in Eskalationssituationen deeskalierende Optionen stärker gewichten als andere Modelle.

Diese Unterschiede sind keine Fehler, sondern Ergebnis unterschiedlicher Trainingsoptimierungen. Sie sollten jedoch transparent gemacht und in der Nutzung berücksichtigt werden. Die Wahl des Modells ist damit selbst eine strategische Entscheidung, die nicht nur von technischen Leistungsparametern, sondern auch von der Kompatibilität des strategischen Profils mit dem Anwendungskontext abhängen sollte.

Ob sich diese Profile mit der zunehmenden Integration emotionaler und multimodaler Verarbeitung (im Sinne des Emotional Turn) verändern, angleichen oder weiter ausdifferenzieren werden, bleibt eine offene empirische Frage. Die bisherigen Befunde legen jedoch nahe, dass strategische Intelligenz und emotionale Intelligenz unterschiedliche Dimensionen darstellen, die nicht notwendigerweise konvergieren.

Unterschiedliche Optimierungsprofile: KI-Modelle wie Gemini, OpenAI und Anthropic haben einzigartige strategische Fingerabdrücke, die durch ihre jeweilige Optimierung entstehen – nicht durch »Persönlichkeiten« im menschlichen Sinne.

Anpassungsfähigkeit als Schlüssel: Die Fähigkeit, die eigene Strategie an veränderte Spielstrukturen anzupassen, ist kontextabhängig entscheidend. Starre Optimierung auf einen Kontext kann in anderen Umgebungen katastrophal sein.

Strategisches Denken ohne ethische Dimension: Die Modelle denken strategisch mit unterschiedlichen Schwerpunkten – aber diese Denkstile haben keine inhärente moralische Qualität. Die spieltheoretische Beobachtung entkoppelt strategische Funktionalität von ethischer Bewertung.

Literaturverzeichnis

(1) Gabriel, M. (2025, 3. Oktober). Wie künstliche Intelligenz die freie Marktwirtschaft herausfordert [Vortrag]. Institut für Wirtschaft und Politik (IWP), Luzern, Schweiz.

(2) Payne, K., & Alloui-Cros, B. (2025). Strategic Intelligence in Large Language Models: Evidence from evolutionary Game Theory. King's College London & University of Oxford. https://arxiv.org/html/2507.02618v1

Frank Stratmann

VERFÜGBAR AUF ANFRAGE

Ich bin Frank Stratmann – ein Cultural-Foresight-Analyst und Designer für deliberative Kommunikation.
Bekannt als @betablogr.

Frank Stratmann

VERFÜGBAR AUF ANFRAGE

Ich bin Frank Stratmann – ein Cultural-Foresight-Analyst und Designer für deliberative Kommunikation.
Bekannt als @betablogr.

Frank Stratmann