两阶段囚徒困境的博弈树 R 2 2.2 (6,1) 1 R R 5L2 5) R R R R R 2 R, L2/r 504150415041 4 054105410541054
两阶段囚徒困境的博弈树 1 L1 R1 2 L 2 R 2 2 2 L 2 R 2 L R L R L R L R 1 1 1 1 (2, 2 ) (6, 1 ) (1, 6 ) (5, 5 ) L1 R1 2 2 L1 R1 2 2 L1 R1 2 2 L1 R1 2 2 L 2 R 2 L 2 R 2 L 2 R 2 L 2 R 2 L 2 R 2 L 2 R 2 L 2 R 2 L 2 R 2 1 1 5 0 0 5 4 4 1 1 5 0 0 5 4 4 1 1 5 0 0 5 4 4 1 1 5 0 0 5 4 4 6
两阶段囚徒困境 ■子博弈完美纳什均衡 L1 L1L1L1L1, L2L2 l2) 对于阶段1的任何结果,在阶段1, Player1选 择L1在阶段2选择L1。 对于阶段1的任何结果,在阶段1, Player1选 择L2,在阶段2选择L2。 Player 2 0 Player 1 R 0 5 4 4
两阶段囚徒困境 子博弈完美纳什均衡 ( L L L L L L L L L L ) 1 L 1 L 1 L 1 L 1, L 2 L 2 L 2 L 2 L 2 ) 对于阶段 1 的任何结果,在阶段 1 ,Player 1 选 择 L 1, 在阶段 2选择 L 1 。 对于阶段 1 的任何结果 ,在阶段 1 ,Pla yer 1 选 择 L 2, 在阶段 2选择 L 2 。 Player 2 L 2 R 2 Player 1 L 1 1 , 1 5 , 0 R 1 0 , 5 4 , 4 7
有限的重复博弈 ■有限重复博弈是完全信息的动态博弈,其中(同时行 动)博弈被进行有限的次数,并且在下一次博弈之前 观察先前的博弈。 如果在阶段博弈(同步行动博弈)只有唯一的纳什均 衡,则有限重复博弈中唯一的子博弈完美纳什均衡即 是这个纳什均衡被重复了n次
有限的重复博弈 有限重复博弈是完全信息的动态博弈,其中(同时行 动 )博弈被进行有限的次数 博弈被进行有限的次数 ,并且在下 次博弈之前 一 观察先前的博弈。 如果在阶段博弈 如果在阶段博弈 (同步行动博弈 )只有唯 的纳什均 一 衡,则有限重复博弈中唯一的子博弈完美纳什均衡即 是这个纳什均衡被重复了 n 次 。 8
如果阶段博弈中存在多于一个纳什 均衡会发生什么? 两名参与者两次同时进行以下的同步行动游戏 在第二场博弈开始前观察第一场博弈的结果 整个博弈的收益只是两阶段的收益之和,也就是说折旧因子是1 题:我们能否找到一个完美的子博弈纳什均衡,其中M1,M2被 选择?或者,两个参与者能否在子博弈完美的纳什均衡中合作? Player 2 M 1 5 0 0 0 laver 1 M 0 5 4 4 0 0 R 0 0 0 0 9
如果阶段博弈中存在多于 如果阶段博弈中存在多于 个纳什 一 均衡会发生什么? 两名参与者两次同时进行以下的同步行动游戏 在第二场博弈开始前观察第一场博弈的结果 整个博弈的收益只是两阶段的收益之和,也就是说折旧因子是1. 问题:我们能否找到一个完美的子博弈纳什均衡,其中 M1, M 2 被 选择 ?或者,两个参与者能否在子博弈完美的纳什均衡中合作 两个参与者能否在子博弈完美的纳什均衡中合作 ? Player 2 Player 2 L 2 M 2 R 2 L1 1 , 1 5 , 0 0 , 0 Player 1 1 , , , M1 0 , 5 4 , 4 0 , 0 R1 0 , 0 0 , 0 3 , 3 9 1
博弈树 R M M, R2 M, R2 1)(5,0)(.0)(0,5)(4|4)(0.0)(0,0)(0.0)(33) M R (1,1)(5,0)(0,0)(0,5)(4,4)(0,0)(0,0)(0,0)(3,3)
博弈树 1 L1 R1 2 M1 2 L2 M R2 2 L2 M R2 2 L2 M R2 2 2 2 M 2 2 2 M 2 2 2 M 2 2 (1, 1) (5, 0) (0, 0) (0, 5) (4, 4) (0, 0) (0, 0) (0, 0) (3, 3) L1 M1 R1 ( ) ( , ) (0, 0) ( , ) ( ) ( ) ( , ) ( ) 1 1 1 2 2 L2 M R2 L2 M R2 L2 M R2 2 1 L2 M R2 2 L2 M R2 2 L2 M R2 2 (1 1) (5 0) (0 0) (0 5) (4 4) (0 0) (0 0) (0 0) (3 3) 10 (1, 1) (5, 0) (0, 0) (0, 5) (4, 4) (0, 0) (0, 0) (0, 0) (3, 3)