目录

一、 连续的定义

定义函数 $f(x)$ 在点 $x=a$ 处是连续的,必须同时满足以下三个条件(缺一不可):

  1. 1. 函数有定义:$f(a)$ 必须存在(是有意义的实数)。
  2. 2. 极限存在:$\lim_{x \to a} f(x)$ 必须存在。这意味着左极限等于右极限:
    • $\lim_{x \to a^-} f(x) = \lim_{x \to a^+} f(x)$
  3. 3. 极限值等于函数值:$\lim_{x \to a} f(x) = f(a)$。
再用旧的表述,即为:1)函数在a有定义 2)当自变量变化无穷小时有定义,且自变量变化一个无穷小量$dx$时,因变量也变化一个无穷小量$dy$。只有无穷小的变化,故称为连续。
总结:如果不满足上述任何一条,该点即为间断点

二、 间断点的分类

间断点主要分为两类,区分的关键在于左右极限是否存在

1. 第一类间断点

特征:左右极限都存在

此类间断点又细分为两种情况:

2. 第二类间断点

特征:左右极限中至少有一个不存在

常见的两种情况:

三、 间断点的修复(针对可去间断点)

对于第一类间断点中的“可去间断点”,我们可以通过数学手段将其“修复”为连续点。

修复方法: 重新定义(或补充定义)函数在 $x=a$ 处的值,使其等于该点的极限值。

公式: $$ \text{令 } f(a) = \lim_{x \to a} f(x) $$

通过这种操作,原本的空心点被填补,函数在该点瞬间变为连续。

四、 柯西连续性定义 (ε-δ 语言)

这是连续性的严格数学定义,由柯西(Cauchy)和魏尔斯特拉斯引入,用于通过逻辑量词严谨地描述“无限接近”的概念。

定义: 设函数 $f(x)$ 在 $x_0$ 的某个邻域内有定义。如果对于任意给定的正数 $\epsilon$(无论它多么小),总存在一个正数 $\delta$,使得对于所有满足 $|x - x_0| < \delta$ 的 $x$,都有: $$ |f(x) - f(x_0)| < \epsilon $$ 则称函数 $f(x)$ 在点 $x_0$ 处连续。

逻辑符号表示: $$ \forall \epsilon > 0, \exists \delta > 0, \text{ s.t. } \forall x (|x - x_0| < \delta \implies |f(x) - f(x_0)| < \epsilon) $$

直观理解
* $\epsilon$ 代表对函数值误差的容忍度(目标)。
* $\delta$ 代表为了满足这个误差,自变量 $x$ 必须控制的范围(手段)。
* 连续意味着:只要你给出一个误差标准 $\epsilon$,我总能找到一个足够小的范围 $\delta$,使得在这个范围内,函数值与目标值的偏差都在允许范围内。

五、 绝对连续 (Absolute Continuity)

绝对连续是比一致连续更强的概念,主要用于实变函数论和微积分基本定理的推广。

定义: 设函数 $f(x)$ 定义在区间 $I$ 上。如果对于任意给定的 $\epsilon > 0$,存在 $\delta > 0$,使得对于 $I$ 中任意有限个互不相交的开区间 $(a_1, b_1), (a_2, b_2), \dots, (a_n, b_n)$,只要这些区间的总长度小于 $\delta$(即 $\sum_{i=1}^n (b_i - a_i) < \delta$),就有函数值变差的总和小于 $\epsilon$: $$ \sum_{i=1}^n |f(b_i) - f(a_i)| < \epsilon $$ 则称 $f(x)$ 在区间 $I$ 上是绝对连续的。

重要性质

六、 其他连续性定义与公式

除了上述定义,数学分析中还有以下几种描述连续的重要方式:

1. 海涅定义 (Heine Definition / 归结原则)

这是基于数列极限的定义,常用于证明或判断不连续。

定义: 函数 $f(x)$ 在点 $x = a$ 处连续,当且仅当对于任何收敛于 $a$ 的数列 $\{x_n\}$(即 $\lim_{n \to \infty} x_n = a$),其对应的函数值数列 $\{f(x_n)\}$ 也收敛于 $f(a)$。

公式: $$ \lim_{n \to \infty} x_n = a \implies \lim_{n \to \infty} f(x_n) = f(a) $$

2. 一致连续 (Uniform Continuity)

这是定义在区间上的概念,比逐点连续更强。

定义: 设 $f(x)$ 定义在区间 $I$ 上。如果对于任意 $\epsilon > 0$,存在一个只依赖于 $\epsilon$ 而与点 $x$ 无关的 $\delta > 0$,使得对于区间内任意两点 $x_1, x_2$,只要 $|x_1 - x_2| < \delta$,就有 $|f(x_1) - f(x_2)| < \epsilon$。

与普通连续的区别

康托尔定理 (Cantor's Theorem):如果函数 $f(x)$ 在闭区间 $[a, b]$ 上连续,则它在该区间上一定是一致连续的。

3. 利普希茨连续 (Lipschitz Continuity)

这是一种更强的连续性形式,控制了函数变化的“速度”。

定义: 如果存在一个常数 $K \ge 0$(称为利普希茨常数),使得对于区间内任意 $x_1, x_2$,都有: $$ |f(x_1) - f(x_2)| \le K |x_1 - x_2| $$ 则称 $f(x)$ 是利普希茨连续的。

关系链: 可导且导数有界 $\implies$ 利普希茨连续 $\implies$ 一致连续 $\implies$ 连续。