====== 多变量函数微分学 (Multivariable Differential Calculus) ====== 本页面详细讲解多变量微积分的核心概念,包括极限、连续性、偏导数、链式法则、梯度、极值及拉格朗日乘数法。 ===== 1. 多变量函数的极限 (Limits) ===== 与单变量函数不同,多变量函数(如 $f(x,y)$)在趋近某一点 $(a,b)$ 时,必须保证**从任何路径**趋近该点,极限值都相同。 ==== 1.1 极限的运算法则 ==== 若 $\lim f = A$ 且 $\lim g = B$ 存在,则有以下性质(参考图片1): * **加法法则:** $\lim(f + g) = \lim f + \lim g$ * **常数倍:** $\lim(cf) = c \lim f$ * **乘法法则:** $\lim(fg) = \lim f \lim g$ * **除法法则:** $\lim \frac{f}{g} = \frac{\lim f}{\lim g}$ (前提是 $\lim g \neq 0$) ==== 1.2 计算极限的技巧:极坐标变换 ==== 当处理 $(x,y) \to (0,0)$ 的极限问题时,极坐标变换是一个强有力的工具。 **例题:** 求 $\lim_{(x,y)\to(0,0)} \frac{xy}{\sqrt{x^2+y^2}}$ **解析(参考图片2):** 该式子属于 $\frac{0}{0}$ 型不定式。对于多变量函数,洛必达法则不再适用。我们可以利用极坐标变换: $$ x = r\cos\theta, \quad y = r\sin\theta, \quad r = \sqrt{x^2+y^2} $$ 当 $(x,y) \to (0,0)$ 时,等价于 $r \to 0$。 代入原式: $$ \lim_{r\to 0} \frac{(r\cos\theta)(r\sin\theta)}{r} = \lim_{r\to 0} (r\cos\theta\sin\theta) = 0 $$ **结论:** 极限为 0。因为 $\cos\theta\sin\theta$ 是有界的,乘以趋近于 0 的 $r$,结果必然趋近于 0。 ===== 2. 连续性 (Continuity) ===== 如果函数 $f(x,y)$ 在点 $(a,b)$ 处连续,必须同时满足以下三个条件(参考图片3): - 1. **极限存在:** $\lim_{(x,y)\to(a,b)} f(x,y)$ 存在。 - 2. **函数有定义:** $f(a,b)$ 有定义。 - 3. **极限等于函数值:** $\lim_{(x,y)\to(a,b)} f(x,y) = f(a,b)$。 **定理:** 如果一个多变量函数由连续函数通过加、减、乘、除(分母不为0)或复合而成,则该函数在其定义域内连续。 ===== 3. 偏导数 (Partial Derivatives) ===== 偏导数描述了多变量函数沿坐标轴方向的变化率。 ==== 3.1 定义 ==== 根据导数的定义(参考图片4): **对 $x$ 的偏导数:** 把 $y$ 看作常数,对 $x$ 求导。 $$ \frac{\partial f}{\partial x} = \lim_{h\to 0} \frac{f(x+h, y) - f(x,y)}{h} $$ **对 $y$ 的偏导数:** 把 $x$ 看作常数,对 $y$ 求导。 $$ \frac{\partial f}{\partial y} = \lim_{h\to 0} \frac{f(x, y+h) - f(x,y)}{h} $$ ==== 3.2 几何意义 ==== * $f_x(a,b)$ 是曲面 $z=f(x,y)$ 在点 $(a,b)$ 处,沿 $x$ 轴方向切线的斜率。 * $f_y(a,b)$ 是曲面 $z=f(x,y)$ 在点 $(a,b)$ 处,沿 $y$ 轴方向切线的斜率。 ===== 4. 多变量函数的链式法则 (Chain Rule) ===== 当变量之间存在复合关系时,需要使用链式法则。 假设 $w = f(u, v)$,而 $u = g(x, y)$ 且 $v = h(x, y)$,则 $w$ 对 $x$ 的偏导数为(参考图片6): $$ \frac{\partial w}{\partial x} = \frac{\partial w}{\partial u}\frac{\partial u}{\partial x} + \frac{\partial w}{\partial v}\frac{\partial v}{\partial x} $$ 同理,对 $y$ 的偏导数为: $$ \frac{\partial w}{\partial y} = \frac{\partial w}{\partial u}\frac{\partial u}{\partial y} + \frac{\partial w}{\partial v}\frac{\partial v}{\partial y} $$ **记忆技巧(树状图):** 画出变量依赖图:$w \to (u, v) \to (x, y)$。求 $\frac{\partial w}{\partial x}$ 时,找出所有从 $w$ 到 $x$ 的路径,将路径上的导数相乘,不同路径之间相加。 ===== 5. 梯度与方向导数 (Gradient & Directional Derivative) ===== ==== 5.1 梯度 (Gradient) ==== 函数 $f(x,y)$ 的梯度是一个向量,定义为(参考图片7): $$ \nabla f = \left( \frac{\partial f}{\partial x}, \frac{\partial f}{\partial y} \right) = \frac{\partial f}{\partial x}\mathbf{i} + \frac{\partial f}{\partial y}\mathbf{j} $$ **梯度的重要性质:** * $\nabla f$ 指向函数值增长**最快**的方向。 * $|\nabla f|$ 表示该方向上的最大变化率。 * $\nabla f$ 垂直于过该点的等高线(Level Curve)。 ==== 5.2 方向导数 ==== 函数 $f$ 在点 $P$ 沿单位向量 $\mathbf{u}$ 方向的变化率: $$ D_{\mathbf{u}}f = \nabla f \cdot \mathbf{u} = |\nabla f| \cos \theta $$ ===== 6. 极值与最优化 (Extrema & Optimization) ===== ==== 6.1 寻找临界点 ==== 类似于单变量微积分,多变量函数的极值通常出现在**临界点**,即梯度为零的点: $$ \nabla f(x,y) = \mathbf{0} \implies f_x = 0 \text{ 且 } f_y = 0 $$ ==== 6.2 经典例题:无约束优化 ==== **题目(参考图片5):** 找出三个数 $x, y, z$,使它们的和是 120,而乘积最大。 **解法:** 1. **建立函数与约束:** 目标函数 $P = xyz$,约束 $x+y+z=120$。 2. **降元:** 由约束得 $z = 120 - x - y$。 3. **代入目标函数:** $f(x,y) = xy(120-x-y) = 120xy - x^2y - xy^2$。 4. **求偏导并令其为0:** * $f_x = 120y - 2xy - y^2 = y(120-2x-y) = 0$ * $f_y = 120x - x^2 - 2xy = x(120-x-2y) = 0$ 5. **解方程组:** 排除 $x=0$ 或 $y=0$ 的情况(那样积为0,显然不是最大值),解得 $x=40, y=40$。 6. **回代:** $z = 120 - 40 - 40 = 40$。 7. **结论:** 三个数均为 40 时乘积最大,最大值为 $40^3 = 64000$。 ==== 6.3 二阶导数检验 (Second Derivative Test) ==== 为了判断临界点 $(a,b)$ 是极大值、极小值还是鞍点,我们需要计算**黑塞矩阵(Hessian)**的行列式 $D$: $$ D = f_{xx}(a,b) f_{yy}(a,b) - [f_{xy}(a,b)]^2 $$ 判定规则: * 若 $D > 0$ 且 $f_{xx} > 0$ $\implies$ **局部极小值** * 若 $D > 0$ 且 $f_{xx} < 0$ $\implies$ **局部极大值** * 若 $D < 0$ $\implies$ **鞍点 (Saddle Point)** * 若 $D = 0$ $\implies$ 检验失效 * {{ 微积分:pasted:20251124-134324.png }} ===== 7. 拉格朗日乘数法 (Lagrange Multipliers) ===== 当需要在约束条件 $g(x,y)=k$ 下求函数 $f(x,y)$ 的极值时,除了上述的“降元法”,更通用的方法是拉格朗日乘数法。 **核心思想:** 在极值点处,目标函数的等高线与约束曲线相切,即它们的梯度向量平行。 **方程组:** $$ \nabla f = \lambda \nabla g $$ $$ g(x,y) = k $$ 即求解: - $f_x = \lambda g_x$ - $f_y = \lambda g_y$ - $g(x,y) = k$ 解出 $x, y, \lambda$,比较所有解点的函数值即可得到最大/最小值。