贝叶斯定理(Bayes’ Theorem)

贝叶斯定理(Bayes’ Theorem)是概率论中一个非常重要的定理,用于在已知结果的情况下推断原因(也就是“后验概率”)。

一句话理解

贝叶斯定理告诉我们如何根据已有信息更新对某事件的信念。

数学表达式

对于两个事件 \(A\)\(B\),只要 \(P(B) > 0\),贝叶斯定理公式如下:

\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} \]

其中:

  • \(P(A)\)先验概率,事件 A 发生的原始概率;
  • \(P(B|A)\)似然度,在 A 发生的条件下,观察到 B 的概率;
  • \(P(B)\)边缘概率,B 发生的总概率;
  • \(P(A|B)\)后验概率,在 B 发生的前提下,A 发生的概率。

通俗理解

想象一个医生看到病人有发烧的症状(B),他希望知道这个人是否患有某种病(A)。

  • \(P(A)\):这个病在人群中的患病率;
  • \(P(B|A)\):有这种病的人发烧的概率;
  • \(P(B)\):不管是否得病,总体发烧的概率;
  • \(P(A|B)\):某人已经发烧了,他患这种病的可能性。

示例:疾病检测

假设:

  • 某病患病率 \(P(\text{病}) = 1\% = 0.01\)
  • 检测准确率:
    • 如果有病,检测呈阳性 \(P(\text{阳性}|\text{病}) = 99\%\)
    • 如果无病,检测误报率 \(P(\text{阳性}|\text{无病}) = 5\%\)

问:一个人检测阳性后,他实际患病的概率是多少?

解:

设:

  • \(A\):有病
  • \(B\):检测为阳性

\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} \]

计算 \(P(B)\)

\[ P(B) = P(B|A)P(A) + P(B|\text{无病})P(\text{无病}) \\ = 0.99 \times 0.01 + 0.05 \times 0.99 = 0.0099 + 0.0495 = 0.0594 \]

代入贝叶斯公式:

\[ P(A|B) = \frac{0.99 \times 0.01}{0.0594} \approx 0.1667 \]

所以,即使检测呈阳性,患病概率也只有 约 16.67%

应用场景

  • 医学诊断
  • 垃圾邮件识别(朴素贝叶斯)
  • 金融风控
  • 机器学习中的贝叶斯推断
  • 自然语言处理(情感分析、文本分类)