Contract Theory (2) —— Moral Hazard

道德风险 (Moral Hazard, MH)

道德风险 (Moral Hazard, MH) 是委托-代理 (Principal-Agent) 关系中的核心问题。它发生在合同签订之后,当委托人 (Principal) 无法完全观测代理人 (Agent) 的行为时。

  • 核心问题:委托人如何设计激励合约,以引导代理人采取适当的行动,尽管信息中存在噪声?
  • 与逆向选择 (Adverse Selection, AS) 的区别
    • MH = 隐藏行动 (Hidden Action),AS = 隐藏信息 (Hidden Information)。
    • 关键区别:在 MH 中,信息在签约时是对称的;而在 AS 中,信息在签约时已不对称。

I. 经典模型 (The Canonical Model)

1. 基本设定 (Basic Setup)

  • 参与者:委托人 (P, risk-neutral) 和代理人 (A, risk-averse)。

  • 技术:产出 $x$ 由代理人的努力 $e$ 和随机扰动(自然状态)$\theta$ 共同决定,$x \sim F(x \mid \theta)$: $$ x = e + \theta $$

  • 信息:P 只能观测最终产出 $x$,无法直接观测 $e$ 或 $\theta$。A 了解自身努力 $e$,并能观测 $x$,从而推断出 $\theta$。

  • 偏好

    • P 的效用:$U_P = x - s$,其中 $s$ 是支付给 A 的报酬。
    • A 的效用:$U_A = u(s) - c(e)$,其中 $u(\cdot)$ 为凹函数(体现风险规避),$c(\cdot)$ 为凸函数(努力成本递增)。

      如果成本是 monetary 的,那么 $U_A$ 也可以是 $u[s-c(e)]$ 形式的。

      “可加分离”形式的效用函数,意味着不存在财富效应(即代理人的富裕程度不影响其对努力的厌恶程度),这是一个简化分析的关键假设。而 $u[s-c(e)]$ 形式则引入了财富效应。

  • 合约:P 设计基于产出 $x$ 的报酬函数 $s(x)$。

  • 时序

    1. P 提供合约 $s(x)$。
    2. 若 A 接受合约,则选择努力水平 $e$。
    3. 自然状态 $\theta$ 实现。
    4. 双方观测到 $x$,P 支付 $s(x)$。

2. 优化问题 (Optimization Problem)

委托人 P 的目标是选择合约 $s(\cdot)$ 和期望的努力水平 $e$,以最大化自身的期望效用,同时满足以下约束:

$$ \max_{s(\cdot), e} \int (x - s(x)) \, dF(x \mid e) $$

约束条件:

  1. 激励相容约束 (Incentive-Compatibility, IC):代理人选择努力水平 $e$,最大化自身效用: $$ \int u(s(x)) \, dF(x \mid e) - c(e) \geq \int u(s(x)) \, dF(x \mid e') - c(e'), \quad \forall e' $$
  2. 参与约束 (Individual Rationality, IR):代理人从合约中获得的期望效用不低于其保留效用 $\bar{u}_A$: $$ \int u(s(x)) \, dF(x \mid e) - c(e) \geq \bar{u}_A $$

Note: an optimal contract never has randomized $s(x)$ because P is risk-neutral and A is risk-averse.

如果随机的 $s(x)$ 和确定的工资 $s(x)$ 具有相同的期望(对风险中性的 principal 来说无差异),那么风险规避的 agent 会偏好确定的工资。所以 principal 永远不会提供一份包含随机性的工资合同。

3. 两行动模型求解 (Solving the Two-Action Model)

为简化分析,假设代理人仅能在高努力 ($e_H$) 和低努力 ($e_L$) 之间选择,委托人希望激励代理人选择 $e_H$。

委托人的优化问题为:

$$ \begin{aligned} \max_{s(\cdot), e} & \int (x - s(x)) \, dF(x \mid e_H) \\ \text{s.t. } & \int u(s(x)) \, dF(x \mid e_H) - c(e_H) \geq \int u(s(x)) \, dF(x \mid e_L) - c(e_L) \quad \text{(IC)} \\ & \int u(s(x)) \, dF(x \mid e_H) - c(e_H) \geq \bar{u}_A \quad \text{(IR)} \end{aligned} $$

拉格朗日乘子法推导过程

引入拉格朗日乘子 $\mu$(对应 IC)和 $\lambda$(对应 IR),拉格朗日函数为: $$ \begin{aligned} \mathcal{L} = & \int (x - s(x)) \, dF(x \mid e_H) + + \lambda \left[ \int u(s(x)) \, dF(x \mid e_H) - c(e_H) - \bar{u}_A \right] \\ & + \mu \left[ \int u(s(x)) \, dF(x \mid e_H) - c(e_H) - \int u(s(x)) \, dF(x \mid e_L) + c(e_L) \right] \end{aligned} $$

对 $s(x)$ 求导并令其为零,得一阶条件: $$ -f(x \mid e_H) + \mu \left[ u'(s(x)) f(x \mid e_H) - u'(s(x)) f(x \mid e_L) \right] + \lambda u'(s(x)) f(x \mid e_H) = 0 $$

化简后: $$ \frac{1}{u'(s(x))} = \lambda + \mu \left(1 - \frac{f(x \mid e_L)}{f(x \mid e_H)}\right) $$

通过拉格朗日乘子法,最优合约 $s_H(x)$ 满足以下一阶条件 (FOC):

$$ \frac{1}{u'(s(x))} = \lambda + \mu \left(1 - \frac{f(x \mid e_L)}{f(x \mid e_H)}\right) $$

其中:

  • $\lambda$:IR 约束的乘子。
  • $\mu$:IC 约束的乘子。
  • $\displaystyle\frac{f(x \mid e_L)}{f(x \mid e_H)}$:似然比 (likelihood ratio),衡量给定产出 $x$ 时,高努力相对于低努力的可能性。 在这里,$f(x\mid e_L), f(x\mid e_H)$ 被要求有相同的 support,不然可以通过某些结果 $x$ 来完美推断 $e$。

经济学含义:

对 $\text{LHS}=\dfrac{1}{u'(s(x))}$

  • 固定 $x$,$u'(s(x))$ 代表此时给代理人额外1单位钱,他的效用会增加多少。
  • $\dfrac{1}{u'(s(x))}$ 代表为了让代理人的效用增加1个单位,委托人需要支付多少钱。

总结:LHS 是委托人在产出为 $x$ 时,增加一单位代理人效用所付出的边际成本。

对 $\text{RHS} = \lambda + \mu \left(1 - \dfrac{f(x \mid e_L)}{f(x \mid e_H)}\right)$

  • $\lambda$ 是 IR 约束的影子价格。它的含义是:如果代理人的保留效用 $\bar{u}_A$ 下降1单位(即约束放松一点),委托人的最优期望利润会增加 $\lambda$。
  • $\mu$ 是 IC 约束的影子价格。它代表:如果激励代理人所需的成本(例如 $c(e_H)-c(e_L)$)下降1单位,委托人的最优利润会增加 $\mu$。这体现了激励本身对委托人的价值。$\left(1 - \frac{f_L}{f_H}\right)$ 这个因子衡量了在状态 $x$ 下提供效用的“激励效率”。

总结:RHS 是委托人在产出 $x$ 时,增加 1 单位代理人效用获得的边际收益,包括基础参与价值 ($\lambda$) 和激励价值 ($\mu \times \text{激励效率}$)。

这个等式告诉我们,委托人会调整 $s(x)$,使各产出 $x$ 下提供 1 单位效用的边际成本等于边际收益。


II. 经典模型的 Key Insights

1. 最优合约的特征

  • 当 P 激励 A 付出高努力 $e_H$ 时,报酬 $s_H(x)$ 关于似然比 $I(x)=\dfrac{f(x \mid e_L)}{f(x \mid e_H)}$ 是递减的。产出 $x$ 越明确指向高努力,报酬越高。
  • 若分布满足单调似然比条件 (MLRP),则更高产出 $x$ 对应更高报酬 $s_H(x)$,因为 $I(x)$ 关于 $x$ 单调递减。
  • :最优解看似 P 在推断 A 的行为(为高努力信号支付更多),但在均衡中,A 的行动是确定的,P 无需推断。
  • 模型的 tension 在于提供激励和风险分担。

2. 信息充分性原则 (Informativeness Principle)

任何能够提供代理人行为额外信息的信号(无论多么嘈杂),均应纳入最优合约。这是 Holmstrom (1979)[1] 的核心结论。

若除 $x$ 外还有信号 $y$,则当且仅当给定 $x$ 后 $y$ 仍包含关于 $e$ 的信息时,应设计合约 $s(x, y)$。此时, $$ \frac{1}{u^{\prime}(s(x, y))}=\lambda+\mu \left(1-\frac{f(x, y \mid e_L)}{f(x, y \mid e_H)} \right) $$ 只要信号 $y$ 能提供额外的信息,那么 $s(x, y)$ 就能带来帕累托改进。

充分统计量


III. 连续行动模型与 Mirrlees 问题

当努力 $e$ 为连续变量时,可采用一阶方法 (first-order approach),将 IC 约束替换为代理人选择努力的一阶条件,得到更一般的 FOC:

$$ \frac{1}{u'(s(x))} = \lambda + \mu \frac{f_e(x \mid e)}{f(x \mid e)} $$

  • Mirrlees 问题:假设产出服从正态分布 $x \sim N(e, \sigma^2)$,似然比分数 $\dfrac{f_e(x \mid e)}{f(x\mid e)} = \dfrac{x - e}{\sigma^2}$ 无界。对于足够小的 $x$,FOC 右侧可能为负,而左侧 $\dfrac{1}{u'}$ 必为正,导致矛盾。
  • 解释:在某些理想化设定(如正态分布)下,不存在“最优”非线性合约。委托人可通过对极低概率但信息量大的坏结果施加严厉惩罚(因为正态分布的尾部非常薄),以低成本接近 first-best,这在数学上成立,但在现实中因为有限责任、法律限制或模型设定的不完美而不可行。

再考虑若 $x=e+\epsilon, \epsilon \sim U[0,1], e=e_L \text{ or } e_H$ ,则可设计合约:

  • 当 $x \in\left[e_L, e_H\right)$ 时严厉惩罚(因为 A 一定选择了 $e_L$),否则支付固定工资。
  • The key to this example: moving support allows infinitely informative signals (infinite likelihood ratio)

IV. 线性合约:LEN 模型

为获得更现实且稳健的结论,经济学家研究特定情境下的最优合约形式。

1. 为什么是线性合约?

Holmstrom 和 Milgrom (1987)[2] 指出,若代理人可动态调整努力(例如在一段时间内持续工作),并满足技术假设(如 CARA 效用),则线性合约为最优,避免了 Mirrlees 问题中的复杂性和不现实性。

2. 模型设定与求解 (LEN Model)

  • Linear Contract:$s(x) = \alpha x + \beta$
  • Exponential Utility (CARA):$u(w) = -e^{-r w}, u^\prime(w)=re^{-rw}>0, u^{\prime\prime}(w)=-r^2e^{-rw}<0$
  • Normal Noise:$x \sim N(e, \sigma^2)$

对于正态分布 $x\sim N(\mu, \sigma^2)$ 而言,它的矩母函数 $E[e^{tx}]=e^{t\mu + \frac{1}{2}t^2\sigma^2}$,因此 $E[-e^{-tx}]=-e^{-t\mu + \frac{1}{2} t^2\sigma^2}$,对于效用函数为 $u(w)=-e^{-rw}$ 的决策者而言,随机获得 $x$ 等价于确定性获得 $CE=\mu - \frac{1}{2}t\sigma^2$ .

代理人的确定性等价效用 (Certainty Equivalent) 为: $$ CE_A = E[s(x)] - \frac{1}{2} r \cdot \text{Var}(s(x)) - c(e) = (\alpha e + \beta) - \frac{1}{2} r \alpha^2 \sigma^2 - c(e) $$

同时 $CE_P=E[x-s(x)]=(1-\alpha)e-\beta$,总剩余 $$ TS=CE_A+CE_P=e-\frac{1}{2}r\alpha^2\sigma^2-c(e) $$ 最大化总剩余的 first-best 努力程度满足 $c'(e)=1$

代理人选择 $e$ 最大化 $CE_A$,得 $c'(e) = \alpha$ (这就是 IC 条件),如果 $c$ 是凸的,那么 $e_\alpha < e_{FB}$ ,也就是说,second-best 下代理人的努力水平低于 first-best 最优的努力水平。

记 $c'(e)=\alpha$ 的反函数为 $e(\alpha)$,在最优合同下,IR 取等

$$ \mathrm{CE}_A=\alpha e(\alpha)+\beta-c(e(\alpha))-\frac{r}{2} \alpha^2 \sigma^2=0 $$

解得固定支付:

$$ \beta=c(e(\alpha))+\frac{r}{2} \alpha^2 \sigma^2-\alpha e(\alpha) $$ 代入 $\beta$,得到委托人的目标函数: $$ (1-\alpha)e(\alpha)-\beta=e(\alpha)-c(e(\alpha))-\frac{r}{2} \alpha^2 \sigma^2 $$ 选择 $\alpha$ 使上面的式子最大化,其一阶条件 (FOC) 是: $$ \frac{d e}{d \alpha}-c^{\prime}(e(\alpha)) \frac{d e}{d \alpha}-r \alpha \sigma^2=0 $$ 注意到 $c'(e)=\alpha \implies c''(e)\cdot \dfrac{de}{d\alpha} = 1 \implies \dfrac{de}{d\alpha}=\dfrac{1}{c''(e)}$,以及 $c'(e(\alpha))=\alpha$,代入解得最优激励系数 $\alpha^\ast$: $$ \alpha^\ast = \frac{1}{1 + r \sigma^2 c''(e)} $$

联系 $c'(e)=\alpha$ 可解出最优的努力水平 $e^\ast$,进一步可求出 $\alpha^\ast$ 和 $\beta^\ast$ 。

特别地,当 $c(e)=\dfrac{1}{2}ke^2$ 时,有 $$ e^\ast = \frac{1}{k(1+rk\sigma^2)},
\quad \alpha^\ast = \frac{1}{1+rk\sigma^2}, \quad \beta^\ast = \frac{1}{2}\left( \frac{1}{1+rk\sigma^2}\right)^2 \left(r\sigma^2-\frac{1}{k} \right) $$ 注意 $\beta^\ast$ 的符号取决于参数。

委托人的期望利润 $$ E[\pi]=\frac{1}{2k(1+rk\sigma^2)} $$ 而代理人的期望收益恰好为零。

另一种求解方式是在 IC 约束下最大化总剩余,因为最优解会使得 $CE_A=0$ ,最大化 $CE_P$ 等价于最大化 $TS=CE_A+CE_P$。

注意到 $$ TS=CE_A+CE_P=e(\alpha)-c(e(\alpha))-\frac{r}{2} \alpha^2 \sigma^2 $$ 刚好就是上面得到的目标函数。这样做的好处是可以消去 $\beta$。

实际上,最优激励结构(由 $\alpha$ 决定)与剩余分配(由固定支付 $\beta$ 决定)是分离的。委托人可以先选择 $\alpha$ 来将“蛋糕”(总剩余)做到最大,然后再通过调整 $\beta$ 来决定如何切分蛋糕,以恰好满足代理人的参与约束。这大大简化了分析。

3. 核心结论

  • 激励强度 $\alpha^\ast$ 总是小于 1

$\alpha$ 体现的是风险分担程度。如果 $\alpha=1$,意味着代理人承担了全部的产出风险,这对于一个风险规避的代理人来说是无法接受的。由于委托人是风险中性的,她比代理人更适合承担风险。让风险中性的一方(委托人)为风险规避的一方(代理人)分担一部分风险,可以使双方的总体效用(总剩余)增加。因此,委托人会选择“吸收”一部分风险(通过设置 $\alpha<1$),以此换取代理人接受一个对委托人更有利的合约。这虽然牺牲了一部分激励(代理人的努力程度将低于无风险时的最优水平),但这是为了降低“风险成本”所必须付出的代价。

  • 保险成本(分母):分母 $r \sigma^2 c^{\prime \prime}(e)$ 代表了提供激励的"风险成本"。代理人越厌恶风险 $(r \uparrow)$ 、环境噪音越大 $\left(\sigma^2 \uparrow\right)$ 、努力变得更困难的边际成本越高 $\left(c^{\prime \prime} \uparrow\right)$ ,这个风险成本就越高。为了降低这个成本,委托人必须降低激励强度(即减小 $\alpha^\ast$ ),自己承担更多风险,为代理人提供更多"保险"。
  • 如果没有风险($r=0$ 或 $\sigma^2=0$),或者努力成本不增加($c^{\prime\prime}=0$),那么 $\alpha^\ast=1$。委托人“卖掉公司”,让代理人成为剩余索取者,激励最强。

V. 多任务模型 (Multi-Tasking Models)

当代理人需要将努力分配到多个任务上时,激励设计变得更加复杂。核心问题在于,如果不同任务的产出衡量精度不同,那么**基于产出的激励可能会扭曲代理人的努力分配,导致其过度关注易于衡量的任务,而忽略那些同样重要但难以衡量的任务。**这是由 Holmstrom 和 Milgrom (1991)[3] 提出的经典问题。

1. 核心思想与直觉

若代理人在任务 1(例如数量)和任务 2(例如质量)间分配努力,且委托人对任务 1 的观测更精确(即 $\sigma_1^2 < \sigma_2^2$),则:

  • 激励扭曲(Incentive Distortion):如果委托人只为能精确衡量的事情付薪,那么代理人也只会做那些你能精确衡量的事情。例如,如果教师的薪酬只与学生的标准化考试成绩挂钩(易衡量),他们可能会专注于应试技巧(任务1),而忽略培养学生的批判性思维和创造力(任务2,难衡量)。
  • 挤出效应 (Crowding Out):当任务之间存在替代关系时(即投入更多精力到任务1会增加完成任务2的边际成本),对任务1的强激励会“挤出”代理人在任务2上的努力。
  • 低能激励原则 (Low-Powered Incentives):为了避免严重的激励扭曲,当不同任务的重要性与可衡量性不匹配,且任务间存在替代关系时,最优策略反而是同时降低所有任务的激励强度。也就是说,为了让代理人做好那件“难衡量但重要的事”,可能需要削弱对那件“易衡量的事”的奖励。有时,固定薪酬($\alpha=0$)甚至可能是最优选择。

2. 模型设定与推导

  • 任务与产出:代理人从事两项任务,努力水平为 $(e_1, e_2)$。产出为: $$ \begin{aligned} x_1 & = e_1 + \epsilon_1, \quad \epsilon_1 \sim N(0, \sigma_1^2) \\ x_2 & = e_2 + \epsilon_2, \quad \epsilon_2 \sim N(0, \sigma_2^2) \end{aligned} $$ 假设噪声项相互独立。

  • 委托人收益:委托人的总收益是努力的线性函数 $B(e_1, e_2) = p_1 e_1 + p_2 e_2$,其中 $p_1, p_2$ 是各项任务努力的边际价值。

  • 代理人成本:努力成本函数为 $C(e_1, e_2)$,是严格凸函数。任务间的关系由交叉偏导数 $C_{12} = \dfrac{\partial^2 C}{\partial e_1 \partial e_2}$ 决定:

    • $C_{12} > 0$:任务为替代品 (substitutes)。增加任务 1 的努力提高任务 2 的边际成本。
    • $C_{12} < 0$:任务为互补品 (complements)。增加任务 1 的努力降低任务 2 的边际成本。
  • 合约与效用

    • 线性合约:$s(x_1, x_2) = \alpha_1 x_1 + \alpha_2 x_2 + \beta$
    • 代理人确定性等价效用 (CARA): $$ CE_A = E[s] - \frac{r}{2} \text{Var}(s) - C(e_1, e_2) = (\alpha_1 e_1 + \alpha_2 e_2 + \beta) - \frac{r}{2}(\alpha_1^2 \sigma_1^2 + \alpha_2^2 \sigma_2^2) - C(e_1, e_2) $$

代理人选择 $(e_1, e_2)$ 最大化其 $CE_A$。一阶条件为: $$ \frac{\partial C(e_1, e_2)}{\partial e_1} = \alpha_1 \quad (IC_1) \\ \frac{\partial C(e_1, e_2)}{\partial e_2} = \alpha_2 \quad (IC_2) $$ 这两个条件决定了代理人将如何根据激励系数 $(\alpha_1, \alpha_2)$ 来分配其努力 $(e_1, e_2)$。

为了计算 $\partial e_1 / \partial \alpha_1$ 和 $\partial e_2 / \partial \alpha_1$,我们对 IC 条件构成的两个等式两边对 $\alpha_1$ 求偏导 $$ \left\{ \begin{aligned} C_{11} \frac{\partial e_1}{\partial \alpha_1} + C_{12} \frac{\partial e_2}{\partial \alpha_1} & = 1 \\ C_{12} \frac{\partial e_1}{\partial \alpha_1} + C_{22} \frac{\partial e_2}{\partial \alpha_1}& = 0 \end{aligned}\right. $$ 以上两个方程两个未知数,由此解得 $$ \frac{\partial e_1}{\partial \alpha_1} = \frac{C_{22}}{C_{11}C_{22}-C_{12}^2}, \quad \frac{\partial e_2}{\partial \alpha_1} = \frac{-C_{12}}{C_{11}C_{22}-C_{12}^2} $$ 记 $|\nabla^2 C|=C_{11}C_{22}-C_{12}^2$ 是 $C(e_1, e_2)$ 的 Hessian 矩阵的行列式值,由于假设 $C$ 是严格凸函数,其 Hessian 矩阵正定,$|\nabla^2 C|>0$ .

易知 $$ \frac{\partial e_1}{\partial \alpha_1} > 0, \quad \frac{\partial e_2}{\partial \alpha_2} > 0 \quad (\text{激励增强,本任务努力增加}) \\ \text{sign} \left(\frac{\partial e_2}{\partial \alpha_1}\right) = \text{sign} \left(\frac{\partial e_1}{\partial \alpha_2}\right) = \text{sign}(-C_{12}) $$

  • 如果任务是替代品 ($C_{12} > 0$),那么 $\dfrac{\partial e_2}{\partial \alpha_1} < 0$。增强任务1的激励会减少任务2的努力(挤出效应)。
  • 如果任务是互补品 ($C_{12} < 0$),那么 $\dfrac{\partial e_2}{\partial \alpha_1} > 0$。增强任务1的激励会增加任务2的努力。

委托人选择 $(\alpha_1, \alpha_2, \beta)$ 来最大化其期望利润 $E[B - s]$,约束条件是代理人的 IC 和 IR。

同样,可以使用最大化总剩余 (Total Surplus, TS) 的方法来求解最优的激励系数 $(\alpha_1, \alpha_2)$。

总剩余 $$ TS = (p_1 e_1 + p_2 e_2) - C(e_1, e_2) - \frac{r}{2}(\alpha_1^2 \sigma_1^2 + \alpha_2^2 \sigma_2^2) $$ 委托人的问题是选择 $(\alpha_1, \alpha_2)$ 来最大化 TS,其中 $e_1, e_2$ 是由 IC 约束决定的 $\alpha_1, \alpha_2$ 的函数。

将 IC 条件 ($C_1=\alpha_1, C_2=\alpha_2$) 代入,利用包络定理,得到 FOC 为: $$ \left\{ \begin{aligned} \frac{\partial TS}{\partial \alpha_1} & = (p_1 - \alpha_1)\frac{\partial e_1}{\partial \alpha_1} + (p_2 - \alpha_2)\frac{\partial e_2}{\partial \alpha_1} - r\alpha_1\sigma_1^2 = 0 \\ \frac{\partial TS}{\partial \alpha_2} & = (p_1 - \alpha_1)\frac{\partial e_1}{\partial \alpha_2} + (p_2 - \alpha_2)\frac{\partial e_2}{\partial \alpha_2} - r\alpha_2\sigma_2^2 = 0 \end{aligned}\right. $$ 这些就是最优激励系数 $(\alpha_1^\ast, \alpha_2^\ast)$ 必须满足的条件。

令成本函数的Hessian矩阵为 $\mathbf{H} = \begin{pmatrix} C_{11} & C_{12} \\ C_{12} & C_{22} \end{pmatrix}$,噪声方差矩阵为 $\mathbf{\Sigma} = \begin{pmatrix} \sigma_1^2 & 0 \\ 0 & \sigma_2^2 \end{pmatrix}$。 那么 $\mathbf{H}^{-1} = \frac{1}{|\nabla^2 C|} \begin{pmatrix} C_{22} & -C_{12} \\ -C_{12} & C_{11} \end{pmatrix}$。

FOC 的线性方程组可以被重写为: $$ \left( \mathbf{H}^{-1} + r \mathbf{\Sigma} \right) \begin{pmatrix} \alpha_1 \\ \alpha_2 \end{pmatrix} = \mathbf{H}^{-1} \begin{pmatrix} p_1 \\ p_2 \end{pmatrix} $$ 最优激励系数的向量形式为: $$ \begin{pmatrix} \alpha_1^\ast \\ \alpha_2^\ast \end{pmatrix} = \left( \mathbf{I}+ r \mathbf{H} \mathbf{\Sigma} \right)^{-1} \begin{pmatrix} p_1 \\ p_2 \end{pmatrix} $$ 特别地,如果是单任务情况,且 $p_1=1$,那么 $\mathbf{H}=C''(e)$,得到的 $\alpha^\ast$ 恰好就是上一节的结果。

如果任务相互独立 ($C_{12}=0$),此时Hessian矩阵 $\mathbf{H}$ 为对角阵:$\mathbf{H} = \begin{pmatrix} C_{11} & 0 \\ 0 & C_{22} \end{pmatrix}$。那么 $\mathbf{H}^{-1} = \begin{pmatrix} 1/C_{11} & 0 \\ 0 & 1/C_{22} \end{pmatrix}$。

代入最优解公式,由于所有矩阵都是对角阵,计算非常简单:

$$ \alpha_1^\ast = \frac{p_1}{1+rC_{11}\sigma_1^2}, \quad \alpha_2^\ast = \frac{p_2}{1+rC_{22}\sigma_2^2} $$

这说明,当任务在成本上相互独立时,最优激励合同可以对每个任务分开设计,其形式与单任务模型完全一样。

为了使计算简化,令 $C(e_1, e_2)=\dfrac{1}{2}e_1^2+\dfrac{1}{2}e_2^2 + \gamma e_1e_2$,此时有解析解: $$ \begin{aligned} \alpha_1^\ast & = \frac{(1-\gamma^2) \left[ (1+r\sigma_2^2)p_1 - r\gamma\sigma_2^2 p_2 \right]}{[1 + r\sigma_1^2(1-\gamma^2)][1 + r\sigma_2^2(1-\gamma^2)] - \gamma^2} \\ \alpha_2^\ast & = \frac{(1-\gamma^2) \left[ (1+r\sigma_1^2)p_2 - r\gamma\sigma_1^2 p_1 \right]}{[1 + r\sigma_1^2(1-\gamma^2)][1 + r\sigma_2^2(1-\gamma^2)] - \gamma^2} \end{aligned} $$

当 $\gamma \neq 0$ 时,观察 $\alpha_1^\ast$ 的分子:$(1+r\sigma_2^2)p_1 - r\gamma\sigma_2^2 p_2$。

  • 替代品 ($\gamma > 0$):$-r \gamma \sigma_2^2 p_2$ 为负,任务 2 价值 ($p_2$) 越高,任务 1 激励强度 $\alpha_1^\ast$ 越低。强激励任务 1 会挤出任务 2 努力,委托人需减弱激励以平衡。
  • 互补品 ($\gamma < 0$):$-r \gamma \sigma_2^2 p_2$ 为正,任务 2 价值 ($p_2$) 越高,任务 1 激励强度 $\alpha_1^\ast$ 越高,因为激励任务 1 可降低任务 2 成本,产生协同效应。

当 $\sigma_1^2 \to \infty$ 时,任务1变得不可衡量 $$ \lim_{\sigma_1^2 \to \infty} \alpha_1^\ast = 0 $$ 这说明委托人不会对无法衡量的任务提供任何直接的、基于产出的激励。

再对 $\alpha_2^\ast$ 取极限 $\sigma_1^2 \to \infty$, $$ \lim_{\sigma_1^2 \to \infty} \alpha_2^\ast = \frac{p_2 - \gamma p_1}{1 + r\sigma_2^2(1-\gamma^2)} $$ 这恰好就是 Holmstrom 和 Milgrom (1991)3 的(7)式。此时,如果不可衡量的任务1特别重要($p_1$ 很大),且任务是替代的($\gamma>0$),就会有 $\alpha_1^\ast=\alpha_2^\ast=0$ 。

这说明:当多项任务中存在一项无法有效衡量时,最优的激励方案不再是对能衡量的任务进行强激励,而是倾向于提供低强度、均衡的激励。


  1. Holmstrom, B. (1979). Moral Hazard and Observability. The Bell Journal of Economics, 10, 74-91. 

  2. Holmstrom, B., & Milgrom, P. (1987). Aggregation and Linearity in the Provision of Intertemporal Incentives. Econometrica, 55(2), 303–328. 

  3. Holmstrom, B., & Milgrom, P. (1991). Multitask Principal-Agent Analyses: Incentive Contracts, Asset Ownership, and Job Design. Journal of Law, Economics, & Organization, 7, 24–52.  ↩︎

updatedupdated2025-12-022025-12-02