Pfeiffer, T., Rutte, C., Killingback, T., Taborsky, M. & Bonhoeffer, S. Evolution of cooperation by generalized reciprocity. Proc. R. Soc. B Biol. Sci. 272, 1115-1120 (2005).
モデルとしては繰り返しPDを使う。少数のグループ内での繰り返しを想定するけど、今回の特徴は毎回グループ内で相手が変わり、相手についての情報は記憶しない。戦略は、前回の利得がR,S,T,Pのいずれだったかに対して次回の協力率p1,p2,p3,p4を持つ。つまり協力するかどうかは今回の相手とは関係ない。でシミュレーションすると(1,0,0,1)というA-PAVLOVが最終的に安定な戦略になる。
Barta, Z., McNamara, J. M., Huszar, D. B. & Taborsky, M. Cooperation among non-relatives evolves by state-dependent generalized reciprocity. Proc. R. Soc. B Biol. Sci. 278, 843-848 (2011).
今度はギビングゲーム。N人集団をM人集団に分割してランダムにギビングゲームをおこなう。モデルの特徴はほぼ同じで、戦略としては協力するかどうかを確率Pでもって、前回のゲームでもらえたらプラス、そうじゃなきゃマイナス。でそのインクリメント/デクリメント幅もそれぞれ戦略として持つ。結果、グループが小さければ協力が進化してほぼTFTのような戦略が支配的になる。
両方ともグループサイズを小さくすることで評判が無くても協力が進化するから、これは従来の間接互恵というよりgeneralized reciprocityだよね、と。そうなんだけど、そうなんだけど、グループが小さければ結局のところ直接互恵と同じ効果が出てくるのでは。なんか読み間違えてるのかな。
0 件のコメント:
コメントを投稿