Wissenschaft und Wirtschaft

Der unerwartete Champion

Gábor Bíró 16. Oktober 2025
13 Min. Lesezeit

In der Welt der Wissenschaft stammen die tiefgreifendsten Erkenntnisse manchmal aus den einfachsten Experimenten. Zu Beginn der 1980er-Jahre, am Anfang des Zeitalters der Personal Computer, richtete der Politikwissenschaftler Robert Axelrod eine digitale Arena ein, in der Computerprogramme – jedes mit seiner eigenen „Persönlichkeit“ – in einem klassischen Strategiespiel gegeneinander antraten. Die Ergebnisse waren nicht nur überraschend, sie waren bahnbrechend und boten eine neue, wirkungsvolle Perspektive, um die Evolution der Kooperation selbst zu betrachten.

Der unerwartete Champion

Die Ausgangslage: Das Dilemma des Vertrauens

Das Experiment basierte auf einem der berühmtesten Rätsel der Spieltheorie: dem Gefangenendilemma.

Sie kennen wahrscheinlich den klassischen Aufbau: Zwei Komplizen werden verhaftet und in getrennten Zellen festgehalten, ohne miteinander kommunizieren zu können. Der Staatsanwalt macht jedem von ihnen einzeln ein Angebot.

  • Wenn Sie Ihren Partner verraten (Defektion) und dieser schweigt (Kooperation), kommen Sie frei, und Ihr Partner erhält eine lange Strafe (z. B. 10 Jahre).
  • Wenn Sie beide schweigen (kooperieren), erhalten Sie beide eine kurze Strafe (z. B. 1 Jahr).
  • Wenn Sie sich gegenseitig verraten (Defektion), erhalten Sie beide eine mittlere Strafe (z. B. 5 Jahre).

Aus einer rein individualistischen, rationalen Perspektive ist Verrat immer der beste Zug. Wenn Ihr Partner kooperiert, erzielen Sie das beste Ergebnis (Freiheit). Wenn Ihr Partner Sie verrät, vermeiden Sie das schlechteste Ergebnis (der Betrogene zu sein). Das Paradoxon besteht darin, dass beide Spieler, wenn sie dieser „rationalen“ Logik folgen, schlechter dastehen, als wenn sie einander vertraut hätten.

Axelrod interessierte sich dafür, was passiert, wenn dies keine einmalige Begegnung ist. Er konzentrierte sich auf das Iterierte Gefangenendilemma (IGD), bei dem dieselben beiden Spieler immer wieder aufeinandertreffen. Plötzlich spielen Reputation und Gedächtnis eine Rolle. Der „Schatten der Zukunft“ ändert alles. Hat Kooperation eine Chance?

Das große Algorithmen-Turnier

Um die Antwort zu finden, lud Axelrod Akademiker aus verschiedenen Bereichen – Wirtschaft, Psychologie, Mathematik und Informatik – ein, ein Programm einzureichen, das das Iterierte Gefangenendilemma spielen sollte. Bevor wir jedoch die digitalen Kontrahenten vorstellen, ist es wichtig, die Spielregeln zu verstehen, die über ihren Erfolg oder Misserfolg entscheiden würden.

Punkte statt Gefängnis: Die Struktur des Turniers

Um Strategien in einem Computerturnier gegeneinander antreten zu lassen, musste Axelrod das Gefangenendilemma in die Sprache von Bits und Bytes übersetzen. Anstelle der abstrakten Drohung von Gefängnisjahren führte er ein konkretes, messbares System ein: Punkte. Die Logik des Aufbaus blieb erhalten, aber die Perspektive wurde umgedreht. Das Ziel war nicht mehr, die Bestrafung zu minimieren, sondern die Belohnung zu maximieren.

In jeder Runde konnten die beiden Spieler (Programme) Punkte sammeln. Ihre Entscheidung – zu kooperieren oder zu verraten – bestimmte die Auszahlung. Die Punktematrix, die die Grundlage des Turniers bildete, sah wie folgt aus:

  • Gegenseitige Kooperation: Wenn beide Programme kooperieren, erhalten beide eine gute, faire Belohnung. Jeder erhält 3 Punkte. Dies ist die Belohnung für Vertrauen und Zusammenarbeit.
  • Sie verraten, der andere kooperiert: Wenn Sie sich für den Verrat entscheiden, während Ihr Gegner naiv kooperiert, erhalten Sie den größten Preis, und er geht leer aus. Sie erhalten 5 Punkte (die Versuchungs-Auszahlung), und Ihr Gegner erhält 0 (die Auszahlung des Betrogenen).
  • Gegenseitiger Verrat: Wenn Sie beide den Weg des Misstrauens wählen und sich verraten, erhalten Sie jeweils einen minimalen Trostpreis, schneiden aber weitaus schlechter ab, als wenn Sie kooperiert hätten. Jeder erhält nur 1 Punkt. Dies ist die Strafe für gegenseitiges Misstrauen.

Dieses Punktesystem bewahrt auf brillante Weise die Spannung des ursprünglichen Dilemmas:

  1. Die Versuchung ist immer präsent: Unabhängig davon, was Ihr Gegner in einer einzelnen Runde tut, ist es für Sie immer besser, zu verraten. Wenn er kooperiert, erhalten Sie 5 statt 3 Punkte. Wenn er verrät, erhalten Sie 1 statt 0 Punkte.
  2. Das Paradoxon bleibt bestehen: Wenn beide Spieler dieser kurzfristigen „rationalen“ Logik folgen, erzielen sie jeweils 1 Punkt pro Runde. Hätten sie einander vertraut, hätten sie hingegen jeweils 3 Punkte verdienen können. Der Gesamtgewinn für das Paar aus gegenseitigem Verrat (1+1=2) ist weitaus geringer als aus gegenseitiger Kooperation (3+3=6).

Und hier wird es interessant. Da das Turnier über 200 Runden lief, konnte der Gewinn eines einzelnen Spiels (durch das Einstecken der 5 Punkte) ein Pyrrhussieg sein. Wenn ein Programm sich den Ruf eines rücksichtslosen Verräters aufbaute, würden andere Programme (die sich an vergangene Züge erinnern konnten) einfach die Kooperation verweigern. Dieses Programm würde sich zu langfristigen, wechselseitigen Verratszügen verdammen und nur 1 Punkt pro Runde verdienen.

Die eigentliche Herausforderung bestand nicht darin, einen Gegner in einer bestimmten Runde zu schlagen, sondern eine Umgebung zu schaffen, in der gegenseitige Kooperation (das 3-Punkte-Ergebnis) gedeihen konnte. Der Schlüssel zum Erfolg lag nicht darin, den Gegner auszuschalten, sondern eine langfristige, fruchtbare Partnerschaft mit ihm aufzubauen. Mit diesem Aufbau machte Axelrod Vertrauen, Reputation und das Gewicht zukünftiger Konsequenzen zu zentralen Elementen des Wettbewerbs.

Axelrod bat Experten aus den verschiedensten Bereichen um Einsendungen. Jedes Programm war eine Strategie, ein Regelwerk für die Entscheidung, in einer bestimmten Runde zu kooperieren oder zu verraten.

Die Beiträge reichten von brillant komplex bis hin zu raffiniert einfach. Einige waren unerbittlich gemein und verrieten immer. Andere waren rein altruistisch und kooperierten immer. Viele waren hochentwickelt und nutzten statistische Analysen, um den nächsten Zug ihres Gegners vorherzusagen. Diese digitalen „Persönlichkeiten“ traten in einem Rundenturnier an. Jedes Programm spielte gegen jedes andere Programm (plus einen Klon von sich selbst und ein Programm, das zufällige Züge machte) über 200 Runden. Das Ziel war nicht, einzelne Spiele zu „gewinnen“, sondern die höchste Gesamtpunktzahl über das gesamte Turnier zu erreichen.

Die Bühne war bereitet für einen Kampf der digitalen Titanen. Man erwartete, dass eine komplexe, listige Strategie den Sieg davontragen würde.

Was dann geschah, war bemerkenswert.

Der Sieger: Eine Meisterklasse der Einfachheit

Als sich der digitale Staub gelegt hatte, war der Sieger eine der einfachsten eingereichten Strategien. Ihr Name war Tit for Tat, und sie wurde von Anatol Rapoport, einem mathematischen Psychologen, geschrieben.

Die Logik von Tit for Tat war fast lächerlich einfach:

  1. Kooperiere im ersten Zug.
  2. Mache in jedem folgenden Zug das, was dein Gegner im vorherigen Zug getan hat.

Das ist alles. Wenn der Gegner kooperierte, kooperierte Tit for Tat. Wenn er verriet, schlug Tit for Tat sofort zurück. Es war ein einfaches Echo, ein digitaler Spiegel. Es hegte keinen Groll über den unmittelbar letzten Zug hinaus und versuchte nie, seinen Gegner auszutricksen.

Wie konnte ein so grundlegender Algorithmus über Programme triumphieren, die mit komplexen Vorhersagemodellen und machiavellistischer Logik entworfen wurden? Axelrods Analyse der Ergebnisse enthüllte die Schlüsselfaktoren für eine erfolgreiche Kooperation, die Tit for Tat perfekt verkörperte. Er identifizierte vier Eigenschaften, die die Strategien mit den höchsten Punktzahlen gemeinsam hatten:

  • Es war freundlich: Ein „freundliches“ Programm ist eines, das niemals als Erstes verrät. Indem Tit for Tat mit Kooperation begann, signalisierte es sofort die Bereitschaft zur Zusammenarbeit, öffnete die Tür für gegenseitig vorteilhafte Ergebnisse und vermied unnötige Konflikte.
  • Es war vergeltend (oder provozierbar): Tit for Tat war kein Schwächling. Wenn ein Gegner verriet, schlug es im nächsten Zug sofort zurück. Diese schnelle Bestrafung machte deutlich, dass Ausbeutung nicht toleriert würde, und schreckte aggressive Strategien davon ab, es auszunutzen.
  • Es war vergebend: Dies ist wohl seine wichtigste Eigenschaft. Nachdem es einen Verrat vergolten hatte, „vergab“ Tit for Tat sofort und kooperierte im nächsten Zug, wenn der Gegner zur Kooperation zurückkehrte. Es trug nichts nach. Diese Fähigkeit, Zyklen gegenseitiger Anschuldigungen zu durchbrechen, war entscheidend, um Vertrauen wiederherzustellen und zum punkteträchtigen Rhythmus der Kooperation zurückzukehren.
  • Es war klar: Seine Strategie war einfach und transparent. Die Gegner lernten schnell seine Regeln. Sie konnten verstehen, dass Kooperation belohnt und Verrat bestraft werden würde. Diese Klarheit und Vorhersehbarkeit machten es zu einem verlässlichen Partner in der Kooperation.

Die Besetzung: Ein Blick auf die Hauptakteure

Um das Turnier konkreter zu machen, wollen wir einige der digitalen „Persönlichkeiten“ kennenlernen, die angetreten sind. Obwohl Dutzende von Strategien eingereicht wurden, lassen sie sich oft in verschiedene Archetypen einteilen. Hier ist ein Blick auf einige der bemerkenswertesten Konkurrenten und ihre Leistung.

(Hinweis: Der „Rang“ ist eine Verallgemeinerung. In der Realität hing die Leistung von der spezifischen Mischung der anderen Strategien im Turnier ab, aber dies spiegelt die allgemeinen Ergebnisse wider.)

Rang Name der Strategie Kurzbeschreibung Hauptmerkmal(e)
1 Tit for Tat Kooperiert im ersten Zug, kopiert dann den vorherigen Zug des Gegners. Freundlich, Vergeltend, Vergebend, Klar
Spitzengruppe Tester Verrät im ersten Zug, um „die Lage zu sondieren“. Wenn der Gegner zurückschlägt, entschuldigt es sich und spielt Tit for Tat. Wenn nicht, verrät es weiter. Sondierend, aber letztlich kooperativ mit Gegnern, die sich nicht ausnutzen lassen.
Spitzengruppe Friedman (Grim Trigger) Kooperiert, bis der Gegner auch nur einmal verrät, danach verrät es für immer. Freundlich, Unerbittlich vergeltend, Unversöhnlich
Spitzengruppe Tit for Two Tats Eine nachsichtigere Version. Verrät erst, nachdem der Gegner zweimal hintereinander verraten hat. Sehr freundlich, Vergebend, Widersteht Echo-Effekten
Mittelfeld Joss Eine „hinterhältige“ Version von Tit for Tat. Ahmt meist den Gegner nach, hat aber eine 10%ige Chance, anstatt zu kooperieren, zu verraten. Meist freundlich, Vergeltend, aber „heimtückisch“
Mittelfeld Downing Beginnt damit, seinen Gegner zu modellieren. Wenn der Gegner reaktionsschnell erscheint und ein „Gewissen“ hat, kooperiert es. Wenn der Gegner zufällig oder nicht reaktionsschnell erscheint, verrät es, um sich zu schützen. Adaptiv, Kalkulierend, nicht von Natur aus „freundlich“
Untergruppe Always Defect (ALL D) Entscheidet sich immer für Verrat, egal was passiert. Gemein, Aggressiv
Untergruppe Random Kooperiert oder verrät mit einer 50/50-Chance. Unvorhersehbar, Unzuverlässig
Schlusslichter Always Cooperate (ALL C) Entscheidet sich immer für Kooperation, egal wie oft es betrogen wird. Freundlich, aber Naiv und Ausnutzbar
Schlusslichter Nydegger Eine kompliziertere regelbasierte Strategie, die versuchte, ein nachsichtigeres Tit for Tat zu sein, aber ihre Logik war fehlerhaft und ausnutzbar, was zu einer schlechten Leistung führte. Gut gemeint, aber Verwirrt und Ausnutzbar

Diese Tabelle zeigt deutlich, dass die erfolgreichsten Strategien „freundlich“ waren (sie waren nie die ersten, die verrieten), aber sie waren keine Schwächlinge. Die rein aggressiven (ALL D) und rein naiven (ALL C) Strategien schnitten sehr schlecht ab, da sie ausgenutzt oder in gegenseitig zerstörerische Muster verwickelt wurden.

Die zweite Runde und das bleibende Vermächtnis

Im Glauben, die Ergebnisse könnten ein Zufallstreffer gewesen sein, veranstaltete Axelrod ein zweites, noch größeres Turnier. Diesmal kannten die Teilnehmer die Ergebnisse der ersten Runde. Sie wussten um den Erfolg von Tit for Tat und konnten Strategien entwickeln, die speziell darauf abzielten, es zu schlagen. Zweiundsechzig Beiträge kamen aus der ganzen Welt.

Und Tit for Tat gewann erneut.

Seine Robustheit war bewiesen. Die einfachen Prinzipien, anfangs freundlich zu sein, schnell, aber verhältnismäßig zurückzuschlagen, sofort zu vergeben und klar zu sein, waren nicht nur eine Erfolgsformel; sie schienen ein grundlegendes Rezept für die Evolution der Kooperation zu sein.

Theorie vs. die „verrauschte“ Realität

Bevor wir Tit for Tat als das Wundermittel für alle Konflikte des Lebens feiern, ist es wichtig zu bedenken, dass Axelrods Turnier in einem sauberen, digitalen „Labor“ stattfand. Die Programme führten ihre Anweisungen fehlerfrei aus, es gab keine Missverständnisse, und jeder Zug war eindeutig entweder Kooperation oder Verrat.

Obwohl die entdeckten Prinzipien von unschätzbarem Wert sind, ist das wirkliche Leben selten so steril. Es ist voller Fehlkommunikation, Unfälle und falsch interpretierter Absichten. Die Spieltheorie beschreibt diese Unvorhersehbarkeit als „Rauschen“, und dessen Anwesenheit kann die Wirksamkeit einer Strategie grundlegend verändern.

In einer verrauschten Umgebung wird sogar Tit for Tat verwundbar. Stellen Sie sich zwei Tit-for-Tat-Spieler vor, die glücklich kooperieren. Ein einziges Missverständnis führt dazu, dass der kooperative Zug eines Spielers als Verrat wahrgenommen wird. Seinen Regeln folgend, schlägt der zweite Spieler sofort zurück. Der erste Spieler, der sich des ursprünglichen Fehlers nicht bewusst ist, sieht dies als unprovozierten Verrat und schlägt seinerseits zurück. Die beiden können in einer „Todesspirale“ der gegenseitigen Vergeltung gefangen sein, einer digitalen Blutfehde, alles wegen eines einzigen zufälligen Fehlers.

Genau aus diesem Grund wurden in späteren Arbeiten und Turnieren robustere Varianten untersucht, wie Tit for Two Tats (das erst nach zwei aufeinanderfolgenden Verratszügen zurückschlägt), Generous Tit for Tat (das gelegentlich einen Verrat vergibt) und Win-Stay, Lose-Shift (Pavlov), die alle unter verschiedenen Fehlerraten und Populationsdynamiken besser abschneiden können als das Standard-Tit-for-Tat. Die Anerkennung dieser Nuance hilft zu erklären, warum sich die Dynamik der Kooperation manchmal zwischen dem Labor und der realen Welt unterscheidet.

Formal hängt die Nachhaltigkeit der Kooperation in wiederholten Gefangenendilemmata von zwei Komponenten ab: der Rangfolge der Auszahlungen und dem Wert zukünftiger Interaktionen. Die Auszahlungen müssen der Bedingung T > R > P > S (Versuchung > Belohnung > Strafe > Auszahlung des Betrogenen) folgen, und die Spieler müssen zukünftige Auszahlungen ausreichend hoch bewerten (eine hohe Wahrscheinlichkeit der Fortsetzung oder eine niedrige Abzinsungsrate). Wenn diese Bedingungen erfüllt sind und Interaktionen mit angemessener Sicherheit wiederholt werden, können reziproke Strategien selbstverstärkend werden – eine Brücke zwischen Axelrods empirischen Turnieren und den theoretischen Erkenntnissen der wiederholten Spieltheorie.

Jenseits der Simulation: Die Logik der Kooperation in der realen Welt

Natürlich stellt sich die Frage: Sind die Lehren aus Axelrods digitaler Arena nur theoretische Kuriositäten, oder offenbaren sie reale Muster in der menschlichen und natürlichen Welt? Bilden die Kernprinzipien von Tit for Tat – Freundlichkeit, Vergeltung und Vergebung – wirklich die universellen Bausteine der Kooperation?

Die Antwort ist faszinierend. Es stellt sich heraus, dass diese Logik an den unerwartetsten Orten immer wieder auftaucht und beweist, dass Kooperation tiefe evolutionäre und soziale Wurzeln hat. Im Folgenden finden Sie einige Fälle, in denen die Prinzipien von Tit for Tat spontan und ohne übergeordnetes Design entstanden sind.

Das eindrücklichste Beispiel: Die Schützengräben des Ersten Weltkriegs

Die vielleicht ergreifendste Parallele zu Axelrods Erkenntnissen in der realen Welt stammt von einem Ort, an dem wir Kooperation am wenigsten erwarten würden: den Schützengräben des Ersten Weltkriegs. Während langer Phasen des Stillstands an der Westfront entstand zwischen den gegnerischen britischen und deutschen Truppen ein spontanes, informelles Waffenstillstandssystem. Dieses Phänomen wurde als das „Leben und leben lassen“-System bekannt.

Es funktionierte genau wie ein organisches Spiel von Tit for Tat:

  • Sei freundlich (schieße nicht zuerst): Eine Einheit signalisierte ihre friedlichen Absichten durch vorhersehbare, nicht-tödliche Routinen. Zum Beispiel beschossen sie vielleicht jeden Tag zur gleichen Zeit denselben leeren Teil des Grabens. Dies war ein „kooperativer“ Zug.
  • Schlage zurück: Wenn eine Seite plötzlich einen tödlichen, unprovozierten Angriff startete (ein „Verrat“), schlug die andere Seite sofort mit einem heftigen Gegenangriff zurück, um zu zeigen, dass Aggression nicht toleriert würde.
  • Sei vergebend: Entscheidend war, dass die angegriffene Seite nach der Vergeltung oft zu ihrer früheren „kooperativen“ Routine zurückkehrte und damit die Bereitschaft signalisierte, den Waffenstillstand wiederherzustellen. Sie trugen den Groll nicht ewig nach.

Dieses unausgesprochene System der Kooperation entstand ohne Befehle des Oberkommandos (tatsächlich versuchten die Generäle aktiv, es zu unterbinden). Es entsprang dem Eigeninteresse der Soldaten auf beiden Seiten, die erkannten, dass sie sich in einem wiederholten Spiel befanden. Sie wussten, dass sie morgen und übermorgen denselben Gegnern gegenüberstehen würden. Der „Schatten der Zukunft“ war groß, und sie erkannten, dass gegenseitige Zurückhaltung für ihr Überleben weitaus besser war als ständige, ungezügelte Aggression.

Dieses eindrucksvolle historische Beispiel zeigt, dass die in Axelrods Computerturnier entdeckten Prinzipien nicht nur abstrakte Theorie sind. Sie sind ein fundamentaler Teil der menschlichen Überlebens- und Kooperationsstrategie, selbst in den feindlichsten Umgebungen, die man sich vorstellen kann. Die Logik von Tit for Tat ist nicht auf menschliche Konflikte beschränkt. Sie lässt sich auch in anderen Bereichen beobachten:

  • Reziprozität bei Vampirfledermäusen: In der Biologie ist das Verhalten von Vampirfledermäusen ein klassisches Beispiel für reziproken Altruismus. Diese Tiere ernähren sich von Blut, aber eine nächtliche Jagd kann erfolglos sein. Eine Fledermaus, die hungrig zum Schlafplatz zurückkehrt, wird oft von einem gut genährten Artgenossen mit hochgewürgtem Blut gefüttert. Studien haben gezeigt, dass Fledermäuse eher bereit sind, Nahrung mit einer Fledermaus zu teilen, die ihnen zuvor geholfen hat. Dies ist eine klare Tit-for-Tat-Strategie: Kooperiere (teile Blut) mit denen, die mit dir kooperiert haben, und hilf denen nicht, die in der Vergangenheit ihre Hilfe verweigert haben (Vergeltung).
  • Geschäftsbeziehungen und Preisgestaltung: In der Wirtschaft können die (oft stillschweigenden) Preisabsprachen zwischen Unternehmen diesem Muster folgen. Zwei Konkurrenten können einen gegenseitig zerstörerischen Preiskrieg vermeiden (gegenseitige Kooperation). Aber wenn ein Unternehmen plötzlich die Preise senkt, um Marktanteile zu gewinnen (Verrat), wird das andere fast sofort nachziehen (Vergeltung), was letztendlich den Gewinn beider Firmen schmälert. Stabilität wird erst wiederhergestellt, wenn sie zum zuvor verstandenen Preisniveau zurückkehren (Vergebung).

Diese Beispiele verdeutlichen, wie Axelrods Experiment einen fundamentalen Mechanismus aufdeckte, der es Vertrauen und Kooperation ermöglicht, selbst unter eigennützigen, rationalen Akteuren zu entstehen, vorausgesetzt, ihre Beziehung ist langfristig angelegt.

Fazit

Axelrods Arbeit, die in seinem bahnbrechenden Buch Die Evolution der Kooperation von 1984 gipfelte, hatte weitreichende Auswirkungen weit über die Spieltheorie hinaus. Biologen haben sie genutzt, um reziproken Altruismus in Tierpopulationen zu modellieren. Ökonomen haben sie angewandt, um Vertrauen in Geschäftsbeziehungen zu verstehen. Politikwissenschaftler haben ihre Widerspiegelung in der internationalen Diplomatie und den Rüstungskontrollverträgen während des Kalten Krieges gesehen.

Heute inspirieren diese einfachen Prinzipien der Reziprozität die Arbeit jenseits der Sozialwissenschaften: Entwickler von Multi-Agenten-Systemen, dezentralen Protokollen und Blockchain-Anreizmechanismen sowie Teams interagierender KIs stehen alle vor denselben Abwägungen zwischen Ausbeutung und Kooperation. Das Design robuster Reziprozitätsregeln – solche, die Rauschen tolerieren und über Populationen hinweg skalieren – bleibt zentral für die Gestaltung kooperativen Verhaltens in menschlichen wie auch in künstlichen Systemen.

Das Turnier hat uns eine wichtige Lektion gelehrt: Kooperation erfordert weder eine zentrale Autorität noch selbstlosen Altruismus. Sie kann spontan unter eigennützigen Individuen entstehen, solange sie wissen, dass sie sich wiedersehen werden. In einer Welt, die oft komplex und zynisch erscheint, ist der Triumph von Tit for Tat eine hoffnungsvolle und beständige Erinnerung daran, dass die beste Strategie oft darin besteht, freundlich, aber nicht naiv zu sein; vergebend, aber nicht vergesslich; und vor allem klar und konsequent in unseren Handlungen.

Historisch wurden diese Turniere von Robert Axelrod organisiert und analysiert, der die Einreichungen koordinierte und die Ergebnisse in seinem einflussreichen Werk zusammenfasste. Die Strategie, die als Tit for Tat bekannt ist – oft Anatol Rapoport als früherem Befürworter zugeschrieben – wurde durch Axelrods Analyse berühmt. Für die maßgebliche Darstellung des Experiments und seiner Implikationen siehe Axelrods Arbeiten (Axelrod & Hamilton, 1981; Axelrod, 1984). Spätere theoretische und empirische Studien (z. B. Nowak & Sigmund, 1993) haben unser Verständnis vertieft und gezeigt, wann und warum andere Reziprozitätsregeln (wie Win-Stay, Lose-Shift oder großzügigere Varianten) unter verschiedenen Bedingungen besser abschneiden können als das einfache Tit for Tat.