委托代理基本模型
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(IC) u(s(x(a, )))g( )d c(a) u(s(x(a, )))g( )d c(a),a A
Cont…
❖ 以上的模型化方法被称为“状态空间模型化方法” (state-space formulation)。这种模型化方法由 威尔逊(Wilson,1969),斯宾塞和泽克豪森 (Spence and Zeckhauser,1971)及罗斯 (Ross,1973)最初使用,它的好处是每一种技术 关系都非常直观地表述出来,问题是从这种模型化 方法中,我们得不到从经济学上讲有信息量的解 (如果s(x) 不限制在有限区域,解甚至不存在)。
Cont..
❖ 用A表示代理人所有可选择的行动的组合,a A 表示代理人的一个特定行动。注意,尽管再许多 模型中a被简单地假定为代表工作努力水平的一维 变量,理论上讲,行动a可以是任何维度的决策向 量。比如说,如果a=(a1,a2),一种可能的解释 是a1和a分别代表代理人花在“数量”和“质量” 上的工作时间。不过,在本章中,未来分析的方 便,我们假定a是代表代理人努力水平的一维变量。
Cont…
❖ 代理人“不接受合同时能得到的最大期望效用” 由他面临的其他市场机会决定,可以成为保留效 用,用 代表。参与约束又称个人理性约束 (individual rationality constraint),可以表述 如下:
❖
(IR) u(s(x(a, )))g( )d c(a) u
❖ 第二个月约束代理人的激励相容约束 (incentive compatibility constraint):给定 委托人不能观测到代理人的行动a和自然状态θ, 在任何的激励合同下,代理人总是选择使自己的 期望效用最大化的行动a,
补充
Cont…
❖ 因此,除非委托人能对代理人提供足够的激励,否
则,代理人不会如委托人希望的那样努力工作。
❖ 假定分布函数G (θ) 、生产技术x(a,θ) 和 п (a,θ)以及效用函数v(п-s(x))和u(s(п))-c(a)
都是共同知识;就是说,委托人和代理人在有关这 些技术关系上的认识是一致的。 是共同知识的假 定意味着,如果委托人能观测到θ,也就可以知道a, 反之亦然。这是为什么我们必须同时假定a和θ都不 可观测的原因。
❖ 假定委托人和代理人的v-N-M期望效用函数分 别为v(п-s(x))和u(s(п))-c(a),其中
v 0,v 0;u 0,u 0;c 0,c 0
❖ 。即委托人和代理人都是风险规避者或风险中性 者,努力的边际负效用是递增的。委托人和代理 人的利益冲突首先来自假设 0 和c’>0; 0 意 味着委托人希望代理人多努a力,而 c’>0a意味i代理 人希望少努力。
θ)和п(a,θ) 从原分布函数G(θ)导出。我们
用F(x, п ,a), f(x, п ,a)分别代表所导出的分布
函数和对应的密度函数。
Cont…
❖ 在状态空间模型化方法中,效用函数对自然状态θ 取期望值;在参数化方法中,效用函数对观测变 量x取期望值。委托人的问题可以表述如下:
max v( s(x)f (x, , a)dx
u(s(x(a, )))g( )d c(a),a A
Cont…
❖ 总结一下,委托人的问题是选择a和 最大化期 望效用函数,满足约束条件(IR)和(IC)即:
max v(ቤተ መጻሕፍቲ ባይዱ(a, ) s(x(a, )))g( )d
a ,s ( x )
s.t : (IR) u(s(x(a, )))g( )d c(a) u
Cont…
❖ 令θ是不受代理人(和委托人)控制的外生随机变 量(称为“自然状态”),Ө是θ的取值范围,θ在 Ө上的分布函数和密度函数分别为G(θ)和g(θ) (一般地我们假定θ是连续变量;如果θ只有有限个 可能值,g(θ)为概率分布)。在代理人选择行动 a后,外生变量θ实现。a和θ共同决定一个可观测的 结果x(a,θ)和一个货币收入(“产出”)п(a, θ),其中п(a,θ)的直接所有权属于委托人。
Cont…
❖ 我们假定п是a的严格递增的凹函数(即给定 θ,代理人工作越努力,产出越高,但努力的 边际产出递减),п是θ的严格增函数(即较 高的θ代表较有利的自然状态)。委托人的问 题是设计一个激励合同s(x),根据观测到 的x对代理人进行奖惩。我们要分析的问题是 s(x)具有什么样的特征?
Cont…
Cont…
❖ 委托人的期望效用函数可以表示如下:
(P) v( (a, ) s(x(a, )))g( )d
❖ 委托人的问题就是选择a和s(x) 最大化上述期 望效用函数。但是,委托人在这样做的时候,面 临着来自代理人的两个约束。第一个约束是参与 约束(participation constraint),即代理人从 接受合同中得到的期望效用不能小于不接受合同 时能得到的最大期望效用。
a ,s ( x )
s.t : (IR) u(s(x))f (x, ,a)dx c(a) u
(IC) u(s(x))f (x, , a)dx c(a) u(s(x))f (x, , a)dx c(a),a A
Cont…
❖ 委托-代理理论的第三种模型化方法是所谓的“一 般化分布方法”。从上面的分析可以看出,代理人 在不同行动之间的选择等价于在不同的分布函数之 间的选择,因此,我们可以将分布函数本身当作选
Cont…
❖ 另一种等价的但更方便的模型化方法是由莫里斯 (Mirrless,1974,1976)和霍姆斯特姆 (Holmstrom,1979 )开始使用的“分布函数的参 数化方法”。简单的说,这种方法是将上述自然状 态θ的分布函数转换为结果x和п的分布函数。给定θ 的分布函数G(θ),对应每一个a,存在一个x和п 的分布函数,这个新的分布函数通过技术关系x(a,
Cont…
❖ 因此,任何委托人希望的a都只能通过代理人的效 用最大化行为实现。换言之,如果a是委托人希望 的行动,aA 是代理人可选择的任何行动,那么, 只有当代理人从选择a中得到的期望效用大于从选 择 a中A得到的期望效用时,代理人才会选择a。 激励相容约束的数学表述如下:
(IC) u(s(x(a, )))g( )d c(a)
Cont…
❖ 以上的模型化方法被称为“状态空间模型化方法” (state-space formulation)。这种模型化方法由 威尔逊(Wilson,1969),斯宾塞和泽克豪森 (Spence and Zeckhauser,1971)及罗斯 (Ross,1973)最初使用,它的好处是每一种技术 关系都非常直观地表述出来,问题是从这种模型化 方法中,我们得不到从经济学上讲有信息量的解 (如果s(x) 不限制在有限区域,解甚至不存在)。
Cont..
❖ 用A表示代理人所有可选择的行动的组合,a A 表示代理人的一个特定行动。注意,尽管再许多 模型中a被简单地假定为代表工作努力水平的一维 变量,理论上讲,行动a可以是任何维度的决策向 量。比如说,如果a=(a1,a2),一种可能的解释 是a1和a分别代表代理人花在“数量”和“质量” 上的工作时间。不过,在本章中,未来分析的方 便,我们假定a是代表代理人努力水平的一维变量。
Cont…
❖ 代理人“不接受合同时能得到的最大期望效用” 由他面临的其他市场机会决定,可以成为保留效 用,用 代表。参与约束又称个人理性约束 (individual rationality constraint),可以表述 如下:
❖
(IR) u(s(x(a, )))g( )d c(a) u
❖ 第二个月约束代理人的激励相容约束 (incentive compatibility constraint):给定 委托人不能观测到代理人的行动a和自然状态θ, 在任何的激励合同下,代理人总是选择使自己的 期望效用最大化的行动a,
补充
Cont…
❖ 因此,除非委托人能对代理人提供足够的激励,否
则,代理人不会如委托人希望的那样努力工作。
❖ 假定分布函数G (θ) 、生产技术x(a,θ) 和 п (a,θ)以及效用函数v(п-s(x))和u(s(п))-c(a)
都是共同知识;就是说,委托人和代理人在有关这 些技术关系上的认识是一致的。 是共同知识的假 定意味着,如果委托人能观测到θ,也就可以知道a, 反之亦然。这是为什么我们必须同时假定a和θ都不 可观测的原因。
❖ 假定委托人和代理人的v-N-M期望效用函数分 别为v(п-s(x))和u(s(п))-c(a),其中
v 0,v 0;u 0,u 0;c 0,c 0
❖ 。即委托人和代理人都是风险规避者或风险中性 者,努力的边际负效用是递增的。委托人和代理 人的利益冲突首先来自假设 0 和c’>0; 0 意 味着委托人希望代理人多努a力,而 c’>0a意味i代理 人希望少努力。
θ)和п(a,θ) 从原分布函数G(θ)导出。我们
用F(x, п ,a), f(x, п ,a)分别代表所导出的分布
函数和对应的密度函数。
Cont…
❖ 在状态空间模型化方法中,效用函数对自然状态θ 取期望值;在参数化方法中,效用函数对观测变 量x取期望值。委托人的问题可以表述如下:
max v( s(x)f (x, , a)dx
u(s(x(a, )))g( )d c(a),a A
Cont…
❖ 总结一下,委托人的问题是选择a和 最大化期 望效用函数,满足约束条件(IR)和(IC)即:
max v(ቤተ መጻሕፍቲ ባይዱ(a, ) s(x(a, )))g( )d
a ,s ( x )
s.t : (IR) u(s(x(a, )))g( )d c(a) u
Cont…
❖ 令θ是不受代理人(和委托人)控制的外生随机变 量(称为“自然状态”),Ө是θ的取值范围,θ在 Ө上的分布函数和密度函数分别为G(θ)和g(θ) (一般地我们假定θ是连续变量;如果θ只有有限个 可能值,g(θ)为概率分布)。在代理人选择行动 a后,外生变量θ实现。a和θ共同决定一个可观测的 结果x(a,θ)和一个货币收入(“产出”)п(a, θ),其中п(a,θ)的直接所有权属于委托人。
Cont…
❖ 我们假定п是a的严格递增的凹函数(即给定 θ,代理人工作越努力,产出越高,但努力的 边际产出递减),п是θ的严格增函数(即较 高的θ代表较有利的自然状态)。委托人的问 题是设计一个激励合同s(x),根据观测到 的x对代理人进行奖惩。我们要分析的问题是 s(x)具有什么样的特征?
Cont…
Cont…
❖ 委托人的期望效用函数可以表示如下:
(P) v( (a, ) s(x(a, )))g( )d
❖ 委托人的问题就是选择a和s(x) 最大化上述期 望效用函数。但是,委托人在这样做的时候,面 临着来自代理人的两个约束。第一个约束是参与 约束(participation constraint),即代理人从 接受合同中得到的期望效用不能小于不接受合同 时能得到的最大期望效用。
a ,s ( x )
s.t : (IR) u(s(x))f (x, ,a)dx c(a) u
(IC) u(s(x))f (x, , a)dx c(a) u(s(x))f (x, , a)dx c(a),a A
Cont…
❖ 委托-代理理论的第三种模型化方法是所谓的“一 般化分布方法”。从上面的分析可以看出,代理人 在不同行动之间的选择等价于在不同的分布函数之 间的选择,因此,我们可以将分布函数本身当作选
Cont…
❖ 另一种等价的但更方便的模型化方法是由莫里斯 (Mirrless,1974,1976)和霍姆斯特姆 (Holmstrom,1979 )开始使用的“分布函数的参 数化方法”。简单的说,这种方法是将上述自然状 态θ的分布函数转换为结果x和п的分布函数。给定θ 的分布函数G(θ),对应每一个a,存在一个x和п 的分布函数,这个新的分布函数通过技术关系x(a,
Cont…
❖ 因此,任何委托人希望的a都只能通过代理人的效 用最大化行为实现。换言之,如果a是委托人希望 的行动,aA 是代理人可选择的任何行动,那么, 只有当代理人从选择a中得到的期望效用大于从选 择 a中A得到的期望效用时,代理人才会选择a。 激励相容约束的数学表述如下:
(IC) u(s(x(a, )))g( )d c(a)