PRML 学习笔记(二)- 概率分布 (Probability Distributions)

Posted by Lucius on May 2, 2021

二、概率分布 (Probability Distributions)

参数方法 (Parametric method):

  • 预先假设数据服从一个特定的分布

非参数方法 (Nonparametric method):

  • 数据的分布依赖于数据集的大小,且仅有控制模型复杂度的参数

共轭先验 (Conjugate prior):

  • 使后验分布具有与先验分布相同的函数形式,进而简化贝叶斯分析

2.1 二元变量 (Binary Variables)

伯努利分布:

  • 概率质量函数:
$$ p(x)=\left\{\begin{aligned}& p && \text{if } x = 1 \\& 1-p && \text{if } x = 0\end{aligned}\right.\ \ \ \ \ \ \ $$
  • 期望推导:
$$ E[X]=p+0(1-p)=p $$
  • 方差推导:
$$ D[X]=E[X^2]-E[X]^2=(1^2p+0^2(1-p))-p^2=p(1-p) $$

二项分布:

2.1.1 贝塔分布 (The beta distribution)

伽马函数 (The gamma function):

  • 定义: $\Gamma(x) \equiv \int_{0}^{\infty} u^{x-1} e^{-u} \mathrm{~d} u$

  • 性质:

  • $\Gamma(x+1)=x\Gamma(x)$

  • $\int_{0}^{1} \mu^{a-1}(1-\mu)^{b-1} \mathrm{~d} \mu=\frac{\Gamma(a) \Gamma(b)}{\Gamma(a+b)}$

贝塔分布 (beta distribution):

  • 定义:
$$ \operatorname{Beta}(\mu \mid a, b)=\frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b)} \mu^{a-1}(1-\mu)^{b-1} $$

  • 性质:
$$ \begin{aligned} \mathbb{E}[\mu] &=\frac{a}{a+b} \\ \operatorname{var}[\mu] &=\frac{a b}{(a+b)^{2}(a+b+1)} \end{aligned} $$

将贝塔分布作为先验分布,则后验分布也将为贝塔分布,这个性质为共轭 (conjugacy):

$$ \begin{aligned} & p(\mu \mid a, b)=\frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b)} \mu^{a-1}(1-\mu)^{b-1} \\ & p(\mu \mid m, l, a, b)=\frac{\Gamma(m+a+l+b)}{\Gamma(m+a) \Gamma(l+b)} \mu^{m+a-1}(1-\mu)^{l+b-1} \end{aligned} $$

共轭先验推导方式:

  • 根据似然概率,确定先验分布的大致函数形式(与什么成正比)

  • 再通过归一化确定系数

共轭先验 (Conjugate prior)的意义:

  • sequential Bayesian inference:得到一个 observation 后,可以算出 posterior;由于选取的是共轭先验,所以 posterior 和原来的 prior 形式一样,可以把该 posterior 当作新的 prior,用于下一个 observation,如此迭代下去。对于 stream of data 的情况,这种方式可以实现 real-time learning

2.2 多元变量 (Multinomial Variables)

若变量的类别有 $K$ 个,则用 $K$ 维向量来表示该变量,例如:

$$ \mathbf{x}=(0,0,1,0,0,0)^{\mathrm{T}} $$

数据定义:

  • $\mu_i$ :变量为第 $i$ 类的概率

  • $m_i$ :原始数据中为 $i$ 类的数据数量

2.2.1 狄利克雷分布 (The Dirichlet distribution)

定义:

$$ \operatorname{Dir}(\boldsymbol{\mu} \mid \boldsymbol{\alpha})=\frac{\Gamma\left(\alpha_{0}\right)}{\Gamma\left(\alpha_{1}\right) \cdots \Gamma\left(\alpha_{K}\right)} \prod_{k=1}^{K} \mu_{k}^{\alpha_{k}-1},\alpha_{0}=\sum_{k=1}^{K} \alpha_{k} $$

共轭先验:

$$ \begin{aligned} &p(\mathcal{D} \mid \boldsymbol{\mu})=\prod_{n=1}^{N} \prod_{k=1}^{K} \mu_{k}^{x_{n k}}=\prod_{k=1}^{K} \mu_{k}^{\left(\sum_{n} x_{n k}\right)}=\prod_{k=1}^{K} \mu_{k}^{m_{k}}\\ &p(\boldsymbol{\mu} \mid \boldsymbol{\alpha})=\operatorname{Dir}(\boldsymbol{\mu} \mid \boldsymbol{\alpha})\\ &p(\boldsymbol{\mu} \mid \mathcal{D}, \boldsymbol{\alpha}) \propto p(\mathcal{D} \mid \boldsymbol{\mu}) p(\boldsymbol{\mu} \mid \boldsymbol{\alpha}) \propto \prod_{k=1}^{K} \mu_{k}^{\alpha_{k}+m_{k}-1}\\ &\begin{aligned} p(\boldsymbol{\mu} \mid \mathcal{D}, \boldsymbol{\alpha}) &=\operatorname{Dir}(\boldsymbol{\mu} \mid \boldsymbol{\alpha}+\mathbf{m}) \\ &=\frac{\Gamma\left(\alpha_{0}+N\right)}{\Gamma\left(\alpha_{1}+m_{1}\right) \cdots \Gamma\left(\alpha_{K}+m_{K}\right)} \prod_{k=1}^{K} \mu_{k}^{\alpha_{k}+m_{k}-1} \end{aligned} \end{aligned} $$

2.3 高斯分布 (The Gaussian Distribution)

一元高斯:

$$ \mathcal{N}\left(x \mid \mu, \sigma^{2}\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\} $$

多元高斯:

$$ \mathcal{N}(\mathbf{x} \mid \boldsymbol{\mu}, \mathbf{\Sigma})=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\mathbf{\Sigma}|^{1 / 2}} \exp \left\{-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \mathbf{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\} $$

接下来推导多元高斯的一阶矩、二阶矩以及协方差,推导前需要做如下设定:

  • $\boldsymbol{\Sigma}$ 为实对称矩阵,因此可以正交对角化,其中 $\lambda_{i},\mathbf{u}_{i}$ 分别为特征值和特征向量
$$ \begin{aligned} &\boldsymbol{\Sigma}=\mathbf{U}\Lambda\mathbf{U}^{\mathrm{T}}=\sum_{i=1}^{D} \lambda_{i} \mathbf{u}_{i} \mathbf{u}_{i}^{\mathrm{T}}\\ &\boldsymbol{\Sigma}^{-1}=\mathbf{U}\Lambda^{-1}\mathbf{U}^{\mathrm{T}}=\sum_{i=1}^{D} \frac{1}{\lambda_{i}} \mathbf{u}_{i} \mathbf{u}_{i}^{\mathrm{T}}\\ &|\boldsymbol{\Sigma}|^{1 / 2}=\prod_{j=1}^{D} \lambda_{j}^{1 / 2} \end{aligned} $$
  • 为了接下来推导方便,定义 $y_{i}=\mathbf{u}_{i}^{\mathrm{T}}(\mathbf{x}-\boldsymbol{\mu})$ ,由此可以得到:
$$ \Delta^{2}=(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})=\sum_{i=1}^{D} \frac{y_{i}^{2}}{\lambda_{i}} $$
  • 此处深入一步,推导 $p(\mathbf{y})$ 表达式
$$ \begin{aligned} &\mathbf{y}=\mathbf{U}(\mathbf{x}-\boldsymbol{\mu})\\ &J_{i j}=\frac{\partial x_{i}}{\partial y_{j}}=U_{j i}\\ &|\mathbf{J}|^{2}=\left|\mathbf{U}^{\mathrm{T}}\right|^{2}=\left|\mathbf{U}^{\mathrm{T}}\right||\mathbf{U}|=\left|\mathbf{U}^{\mathrm{T}} \mathbf{U}\right|=|\mathbf{I}|=1\\ &p(\mathbf{y})=p(\mathbf{x})|\mathbf{J}|=\prod_{j=1}^{D} \frac{1}{\left(2 \pi \lambda_{j}\right)^{1 / 2}} \exp \left\{-\frac{y_{j}^{2}}{2 \lambda_{j}}\right\} \end{aligned} $$

首先推导一阶矩 $\mathbb{E}[x]=\boldsymbol{\mu}$ :

  • 令 $\mathbf{z}=\mathbf{x}-\boldsymbol{\mu}$

  • 积分中 $(\mathbf{z}+\boldsymbol{\mu})$ 的部分,第一部分根据奇函数消除,第二部分积分为 $1$

$$ \begin{aligned} \mathbb{E}[\mathbf{x}] &=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\mathbf{\Sigma}|^{1 / 2}} \int \exp \left\{-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\} \mathbf{x} \mathrm{d} \mathbf{x} \\ &=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\mathbf{\Sigma}|^{1 / 2}} \int \exp \left\{-\frac{1}{2} \mathbf{z}^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} \mathbf{z}\right\}(\mathbf{z}+\boldsymbol{\mu}) \mathrm{d} \mathbf{z}\\ &=\boldsymbol{\mu} \end{aligned} $$

接下来推导二阶矩 $\mathbb{E}\left[\mathbf{x} \mathbf{x}^{\mathrm{T}}\right]=\boldsymbol{\mu} \boldsymbol{\mu}^{\mathrm{T}}+\mathbf{\Sigma}$ :

  • 积分式中 $(\mathbf{z}+\boldsymbol{\mu})(\mathbf{z}+\boldsymbol{\mu})^{\mathrm{T}}$ 只需考虑 $\mathbf{z}\mathbf{z}^{\mathrm{T}}$
$$ \begin{array}{c} \mathbb{E}\left[\mathbf{x x}^{\mathrm{T}}\right]&=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\boldsymbol{\Sigma}|^{1 / 2}} \int \exp \left\{-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})\right\} \mathbf{x} \mathbf{x}^{\mathrm{T}} \mathrm{d} \mathbf{x} \\ &=\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\mathbf{\Sigma}|^{1 / 2}} \int \exp \left\{-\frac{1}{2} \mathbf{z}^{\mathrm{T}} \mathbf{\Sigma}^{-1} \mathbf{z}\right\}(\mathbf{z}+\boldsymbol{\mu})(\mathbf{z}+\boldsymbol{\mu})^{\mathrm{T}} \mathrm{d} \mathbf{z} \end{array} $$
  • 求解 $\mathbf{z}=\sum_{j=1}^{D} y_{j} \mathbf{u}_{j}$ ,进而推出 $\mathbb{E}\left[\mathbf{x} \mathbf{x}^{\mathrm{T}}\right]=\boldsymbol{\mu} \boldsymbol{\mu}^{\mathrm{T}}+\mathbf{\Sigma}$ ,下式积分坐标转换采用雅可比行列式的方法, $U$ 为正交矩阵,行列式绝对值为 $1$
$$ \begin{array}{l} \frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\boldsymbol{\Sigma}|^{1 / 2}} \int \exp \left\{-\frac{1}{2} \mathbf{z}^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} \mathbf{z}\right\} \mathbf{z z}^{\mathrm{T}} \mathrm{d} \mathbf{z} \\ =\frac{1}{(2 \pi)^{D / 2}} \frac{1}{|\boldsymbol{\Sigma}|^{1 / 2}} \sum_{i=1}^{D} \sum_{j=1}^{D} \mathbf{u}_{i} \mathbf{u}_{j}^{\mathrm{T}} \int \exp \left\{-\sum_{k=1}^{D} \frac{y_{k}^{2}}{2 \lambda_{k}}\right\} y_{i} y_{j} \mathrm{~d} \mathbf{y} \\ =\sum_{i=1}^{D} \mathbf{u}_{i} \mathbf{u}_{i}^{\mathrm{T}} \lambda_{i}=\mathbf{\Sigma} \end{array} $$

最后可以直接求出:

$$ \operatorname{cov}[\mathbf{x}]=\mathbb{E}\left[(\mathbf{x}-\mathbb{E}[\mathbf{x}])(\mathbf{x}-\mathbb{E}[\mathbf{x}])^{\mathrm{T}}\right]=\mathbf{\Sigma} $$

不同协方差矩阵对应的图像:

多元高斯特点:

  • 参数太多,计算复杂

  • 单峰函数,难以建模多峰函数,但可以进行扩展来支持多峰

  • introducing discrete latent variables (Gaussian Mixtures model)

  • introducing continuous latent variables (Linear Dynamic System)

2.3.1 条件高斯分布 (Conditional Gaussian distributions)

本章重点:证明 $p(\mathbf{x_a,x_b})$ 为高斯分布时, $p(\mathbf{x_a|x_b})$ 也是高斯分布

前提准备:

  • $\mathbf{x}\sim\mathcal{N}(\mathbf{x}|\boldsymbol{\mu},\boldsymbol{\Sigma})$ ,将 $\mathbf{x}$ 如下划分:
$$ \mathbf{x}=\left(\begin{array}{l} \mathbf{x}_{a} \\ \mathbf{x}_{b} \end{array}\right) $$
  • 将 $\boldsymbol{\mu},\boldsymbol{\Sigma}$ 进行相同分解:
$$ \begin{aligned} &\boldsymbol{\mu}=\left(\begin{array}{l} \boldsymbol{\mu}_{a} \\ \boldsymbol{\mu}_{b} \end{array}\right)\\ &\boldsymbol{\Sigma}=\left(\begin{array}{ll} \boldsymbol{\Sigma}_{a a} & \boldsymbol{\Sigma}_{a b} \\ \boldsymbol{\Sigma}_{b a} & \boldsymbol{\Sigma}_{b b} \end{array}\right) \end{aligned} $$
  • 定义精度矩阵 (precision matrix):
$$ \begin{aligned} &\mathbf{\Lambda} \equiv \mathbf{\Sigma}^{-1}\\ &\mathbf{\Lambda}=\left(\begin{array}{ll} \boldsymbol{\Lambda}_{a a} & \boldsymbol{\Lambda}_{a b} \\ \boldsymbol{\Lambda}_{b a} & \boldsymbol{\Lambda}_{b b} \end{array}\right) \end{aligned} $$

证明 $p(\mathbf{x_a|x_b})$ 也是高斯分布:

  • 下式可以表示为 $\mathbf{x_a}$ 的二次型,由此得证
$$ \begin{aligned} -\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})&= -\frac{1}{2}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{a a}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)-\frac{1}{2}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{a b}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right) \\ &=-\frac{1}{2}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{b a}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)-\frac{1}{2}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{b b}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right) \end{aligned} $$

接下来需要求解 $p(\mathbf{x_a|x_b})$ 的均值与协方差矩阵,这里可以使用如下技巧 (completing the square),即求解二次项与一次项的系数:

$$ -\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}(\mathbf{x}-\boldsymbol{\mu})=-\frac{1}{2} \mathbf{x}^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} \mathbf{x}+\mathbf{x}^{\mathrm{T}} \boldsymbol{\Sigma}^{-1} \boldsymbol{\mu}+\text { const } $$

由此求出均值与协方差矩阵如下:

$$ \begin{aligned} &\boldsymbol{\Sigma}_{a \mid b}=\mathbf{\Lambda}_{a a}^{-1}\\ &\begin{aligned} \boldsymbol{\mu}_{a \mid b} &=\boldsymbol{\Sigma}_{a \mid b}\left\{\boldsymbol{\Lambda}_{a a} \boldsymbol{\mu}_{a}-\boldsymbol{\Lambda}_{a b}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right)\right\} \\ &=\boldsymbol{\mu}_{a}-\boldsymbol{\Lambda}_{a a}^{-1} \boldsymbol{\Lambda}_{a b}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right) \end{aligned} \end{aligned} $$

将精度矩阵用原始协方差矩阵代替,则需要应用下述分解方式,其中 $\mathbf{M}^{-1}$ 为矩阵的 Schur complement:

$$ \begin{aligned} \left(\begin{array}{cc} \mathbf{A} & \mathbf{B} \\ \mathbf{C} & \mathbf{D} \end{array}\right)^{-1}&=\left(\begin{array}{cc} \mathbf{M} & -\mathbf{M B D}^{-1} \\ -\mathbf{D}^{-1} \mathbf{C M} & \mathbf{D}^{-1}+\mathbf{D}^{-1} \mathbf{C M B D}^{-1} \end{array}\right)\\ \mathbf{M}&=\left(\mathbf{A}-\mathbf{B D}^{-1} \mathbf{C}\right)^{-1} \end{aligned} $$

由此最终得到:

$$ \begin{aligned} \boldsymbol{\mu}_{a \mid b} &=\boldsymbol{\mu}_{a}+\boldsymbol{\Sigma}_{a b} \boldsymbol{\Sigma}_{b b}^{-1}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right) \\ \boldsymbol{\Sigma}_{a \mid b} &=\boldsymbol{\Sigma}_{a a}-\boldsymbol{\Sigma}_{a b} \boldsymbol{\Sigma}_{b b}^{-1} \boldsymbol{\Sigma}_{b a} \end{aligned} $$

观察上述均值与方差,可得到如下结论:

  • $p(\mathbf{x_a}|\mathbf{x_b})$ 的均值是 $\mathbf{x_b}$ 的线性函数

  • $p(\mathbf{x_a}|\mathbf{x_b})$ 的方差与 $\mathbf{x_b}$ 无关

  • 由此 $p(\mathbf{x_a}|\mathbf{x_b})$ 是线性高斯 (linear-Guassian) 模型

2.3.2 边缘高斯分布 (Marginal Gaussian distributions)

求解 $p(\mathbf{x_a})=\int p(\mathbf{x_a},\mathbf{x_b})d\mathbf{x_b}$ 的概率分布。

与条件高斯分布的过程一致,先只关注 $p(\mathbf{x_a},\mathbf{x_b})$ 指数项中包含 $\mathbf{x_b}$ 的部分:

$$ \begin{aligned} -\frac{1}{2} \mathbf{x}_{b}^{\mathrm{T}} \boldsymbol{\Lambda}_{b b} \mathbf{x}_{b}+\mathbf{x}_{b}^{T} \mathbf{m}&=-\frac{1}{2}\left(\mathbf{x}_{b}-\mathbf{\Lambda}_{b b}^{-1} \mathbf{m}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{b b}\left(\mathbf{x}_{b}-\mathbf{\Lambda}_{b b}^{-1} \mathbf{m}\right)+\frac{1}{2} \mathbf{m}^{\mathrm{T}} \mathbf{\Lambda}_{b b}^{-1} \mathbf{m}\\ \mathbf{m}&=\mathbf{\Lambda}_{b b} \boldsymbol{\mu}_{b}-\boldsymbol{\Lambda}_{b a}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right) \end{aligned} $$

由此对 $x_b$ 积分如下 (忽略常数):

$$ \int \exp \left\{-\frac{1}{2}\left(\mathbf{x}_{b}-\mathbf{\Lambda}_{b b}^{-1} \mathbf{m}\right)^{\mathrm{T}} \boldsymbol{\Lambda}_{b b}\left(\mathbf{x}_{b}-\mathbf{\Lambda}_{b b}^{-1} \mathbf{m}\right)\right\} \mathrm{d} \mathbf{x}_{b}=\text{const} $$

对 $x_b$ 积分结束后,再次关注 $p(\mathbf{x_a},\mathbf{x_b})$ 指数项中包含 $\mathbf{x_a}$ 的部分:

$$ \begin{aligned} \frac{1}{2}\left[\boldsymbol{\Lambda}_{b b}\right.&\left.\boldsymbol{\mu}_{b}-\boldsymbol{\Lambda}_{b a}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)\right]^{\mathrm{T}} \mathbf{\Lambda}_{b b}^{-1}\left[\boldsymbol{\Lambda}_{b b} \boldsymbol{\mu}_{b}-\boldsymbol{\Lambda}_{b a}\left(\mathbf{x}_{a}-\boldsymbol{\mu}_{a}\right)\right] \\ &-\frac{1}{2} \mathbf{x}_{a}^{\mathrm{T}} \boldsymbol{\Lambda}_{a a} \mathbf{x}_{a}+\mathbf{x}_{a}^{\mathrm{T}}\left(\boldsymbol{\Lambda}_{a a} \boldsymbol{\mu}_{a}+\mathbf{\Lambda}_{a b} \boldsymbol{\mu}_{b}\right)+\mathrm{const} \\ =&-\frac{1}{2} \mathbf{x}_{a}^{\mathrm{T}}\left(\boldsymbol{\Lambda}_{a a}-\boldsymbol{\Lambda}_{a b} \mathbf{\Lambda}_{b b}^{-1} \boldsymbol{\Lambda}_{b a}\right) \mathbf{x}_{a} \\ &+\mathbf{x}_{a}^{\mathrm{T}}\left(\boldsymbol{\Lambda}_{a a}-\boldsymbol{\Lambda}_{a b} \mathbf{\Lambda}_{b b}^{-1} \boldsymbol{\Lambda}_{b a}\right)^{-1} \boldsymbol{\mu}_{a}+\mathrm{const} \end{aligned} $$

采用与条件高斯推导一样的方式,求出均值与协方差矩阵如下:

$$ \begin{aligned} &\boldsymbol{\Sigma}_{a}=\left(\boldsymbol{\Lambda}_{a a}-\boldsymbol{\Lambda}_{a b} \mathbf{\Lambda}_{b b}^{-1} \boldsymbol{\Lambda}_{b a}\right)^{-1} \\ &\boldsymbol{\mu}_{a}=\boldsymbol{\Sigma}_{a}\left(\boldsymbol{\Lambda}_{a a}-\boldsymbol{\Lambda}_{a b} \mathbf{\Lambda}_{b b}^{-1} \boldsymbol{\Lambda}_{b a}\right) \boldsymbol{\mu}_{a}=\boldsymbol{\mu}_{a} \end{aligned} $$

利用矩阵的 Schur complement,将精度矩阵用原始协方差矩阵代替:

$$ \begin{aligned} \mathbb{E}\left[\mathbf{x}_{a}\right] &=\boldsymbol{\mu}_{a} \\ \operatorname{cov}\left[\mathbf{x}_{a}\right] &=\mathbf{\Sigma}_{a a} \end{aligned} $$

总结一下:

  • 条件高斯分布 (Conditional Gaussian distribution):
$$ \begin{aligned} p\left(\mathbf{x}_{a} \mid \mathbf{x}_{b}\right) &=\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{a \mid b}, \boldsymbol{\Lambda}_{a a}^{-1}\right) \\ \boldsymbol{\mu}_{a \mid b} &=\boldsymbol{\mu}_{a}-\boldsymbol{\Lambda}_{a a}^{-1} \boldsymbol{\Lambda}_{a b}\left(\mathbf{x}_{b}-\boldsymbol{\mu}_{b}\right) \end{aligned} $$
  • 边缘高斯分布 (Marginal Gaussian distribution):
$$ p\left(\mathbf{x}_{a}\right)=\mathcal{N}\left(\mathbf{x}_{a} \mid \boldsymbol{\mu}_{a}, \boldsymbol{\Sigma}_{a a}\right) $$
  • 举例图示:

2.3.3 高斯变量的贝叶斯定理 (Bayes’ theorem for Gaussian variables)

本节主要目的是根据给定的高斯分布 $p(\mathbf{x}),p(\mathbf{y|x})$ ,求出 $p(\mathbf{x},\mathbf{y}),p(\mathbf{y}),p(\mathbf{x|y})$ 。

首先给出已知先验与似然:

$$ \begin{aligned} p(\mathbf{x}) &=\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}, \mathbf{\Lambda}^{-1}\right) \\ p(\mathbf{y} \mid \mathbf{x}) &=\mathcal{N}\left(\mathbf{y} \mid \mathbf{A} \mathbf{x}+\mathbf{b}, \mathbf{L}^{-1}\right) \end{aligned} $$

定义 $\mathbf{x},\mathbf{y}$ 的联合 $\mathbf{z}=(\mathbf{x}\ \mathbf{y})^{\mathrm{T}}$ ,进行 $p(\mathbf{x},\mathbf{y})$ 的求取,依旧只关注指数内的一次项与二次项:

$$ \begin{aligned} \ln p(\mathbf{z})=& \ln p(\mathbf{x})+\ln p(\mathbf{y} \mid \mathbf{x}) \\ =&-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Lambda}(\mathbf{x}-\boldsymbol{\mu}) \\ &-\frac{1}{2}(\mathbf{y}-\mathbf{A} \mathbf{x}-\mathbf{b})^{\mathrm{T}} \mathbf{L}(\mathbf{y}-\mathbf{A} \mathbf{x}-\mathbf{b})+\text { const } \end{aligned} $$

提取指数中的二次项,得到:

$$ \begin{array}{c} -\frac{1}{2} \mathbf{x}^{\mathrm{T}}\left(\boldsymbol{\Lambda}+\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{A}\right) \mathbf{x}-\frac{1}{2} \mathbf{y}^{\mathrm{T}} \mathbf{L} \mathbf{y}+\frac{1}{2} \mathbf{y}^{\mathrm{T}} \mathbf{L} \mathbf{A} \mathbf{x}+\frac{1}{2} \mathbf{x}^{\mathrm{T}} \mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{y} \\ =-\frac{1}{2}\left(\begin{array}{l} \mathbf{x} \\ \mathbf{y} \end{array}\right)^{\mathrm{T}}\left(\begin{array}{cc} \mathbf{\Lambda}+\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{A} & -\mathbf{A}^{\mathrm{T}} \mathbf{L} \\ -\mathbf{L} \mathbf{A} & \mathbf{L} \end{array}\right)\left(\begin{array}{l} \mathbf{x} \\ \mathbf{y} \end{array}\right)=-\frac{1}{2} \mathbf{z}^{\mathrm{T}} \mathbf{R} \mathbf{z} \end{array} $$

提取指数中的一次项,得到:

$$ \mathbf{x}^{\mathrm{T}} \boldsymbol{\Lambda} \boldsymbol{\mu}-\mathbf{x}^{\mathrm{T}} \mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{b}+\mathbf{y}^{\mathrm{T}} \mathbf{L} \mathbf{b}=\left(\begin{array}{l} \mathbf{x} \\ \mathbf{y} \end{array}\right)^{\mathrm{T}}\left(\begin{array}{c} \mathbf{\Lambda} \boldsymbol{\mu}-\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{b} \\ \mathbf{L b} \end{array}\right) $$

因此可以得到 $p(\mathbf{z})$ 的分布:

$$ \begin{aligned} &\mathbf{R}=\left(\begin{array}{cc} \mathbf{\Lambda}+\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{A} & -\mathbf{A}^{\mathrm{T}} \mathbf{L} \\ -\mathbf{L} \mathbf{A} & \mathbf{L} \end{array}\right)\\ &\operatorname{cov}[\mathbf{z}]=\mathbf{R}^{-1}=\left(\begin{array}{cc} \mathbf{\Lambda}^{-1} & \mathbf{\Lambda}^{-1} \mathbf{A}^{\mathrm{T}} \\ \mathbf{A} \mathbf{\Lambda}^{-1} & \mathbf{L}^{-1}+\mathbf{A} \mathbf{\Lambda}^{-1} \mathbf{A}^{\mathrm{T}} \end{array}\right)\\ &\mathbb{E}[\mathbf{z}]=\mathbf{R}^{-1}\left(\begin{array}{c} \mathbf{\Lambda} \boldsymbol{\mu}-\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{b} \\ \mathbf{L b} \end{array}\right)=\left(\begin{array}{c} \boldsymbol{\mu} \\ \mathbf{A} \boldsymbol{\mu}+\mathbf{b} \end{array}\right) \end{aligned} $$

得到 $p(\mathbf{z})$ 后,可以根据之前对于条件高斯与边缘高斯的探究,得到后验与证据因子分布,总结如下:

$$ \begin{aligned} &\text{已知}=\left\{ \begin{aligned} & [\text{先验}]\ \ p(\mathbf{x}) =\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}, \mathbf{\Lambda}^{-1}\right) \\ & [\text{似然}]\ \ p(\mathbf{y} \mid \mathbf{x}) =\mathcal{N}\left(\mathbf{y} \mid \mathbf{A} \mathbf{x}+\mathbf{b}, \mathbf{L}^{-1}\right) \\ \end{aligned} \right.\\ &\text{求解}=\left\{ \begin{aligned} &[\text{证据}] \ \ p(\mathbf{y})= \mathcal{N}\left(\mathbf{y} \mid \mathbf{A} \boldsymbol{\mu}+\mathbf{b}, \mathbf{L}^{-1}+\mathbf{A} \mathbf{\Lambda}^{-1} \mathbf{A}^{\mathrm{T}}\right) \\ & [\text{后验}] \ \ p(\mathbf{x} \mid \mathbf{y})= \mathcal{N}\left(\mathbf{x} \mid \mathbf{\Sigma}\left\{\mathbf{A}^{\mathrm{T}} \mathbf{L}(\mathbf{y}-\mathbf{b})+\mathbf{\Lambda} \boldsymbol{\mu}\right\}, \mathbf{\Sigma}\right), \boldsymbol{\Sigma} =\left(\mathbf{\Lambda}+\mathbf{A}^{\mathrm{T}} \mathbf{L} \mathbf{A}\right)^{-1} \\ \end{aligned} \right. \end{aligned} $$
2.3.4 高斯极大似然估计 (Maximum likelihood for the Gaussian)

似然函数:

$$ \ln p(\mathbf{X} \mid \boldsymbol{\mu}, \mathbf{\Sigma})=-\frac{N D}{2} \ln (2 \pi)-\frac{N}{2} \ln |\boldsymbol{\Sigma}|-\frac{1}{2} \sum_{n=1}^{N}\left(\mathbf{x}_{n}-\boldsymbol{\mu}\right)^{\mathrm{T}} \boldsymbol{\Sigma}^{-1}\left(\mathbf{x}_{n}-\boldsymbol{\mu}\right) $$

极大似然估计:

$$ \begin{aligned} &\frac{\partial}{\partial \boldsymbol{\mu}} \ln p(\mathbf{X} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma})=\sum_{n=1}^{N} \boldsymbol{\Sigma}^{-1}\left(\mathbf{x}_{n}-\boldsymbol{\mu}\right)=0\Rightarrow \boldsymbol{\mu}_{\mathrm{ML}}=\frac{1}{N} \sum_{n=1}^{N} \mathbf{x}_{n}\\ &\frac{\partial}{\partial \boldsymbol{\Sigma}} \ln p(\mathbf{X} \mid \boldsymbol{\mu}, \boldsymbol{\Sigma})=0\Rightarrow \boldsymbol{\Sigma}_{\mathrm{ML}}=\frac{1}{N} \sum_{n=1}^{N}\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{\mathrm{ML}}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{\mathrm{ML}}\right)^{\mathrm{T}} \end{aligned} $$

检验极大似然估计的期望:

$$ \begin{aligned} \mathbb{E}\left[\boldsymbol{\mu}_{\mathrm{ML}}\right] &=\boldsymbol{\mu} \\ \mathbb{E}\left[\boldsymbol{\Sigma}_{\mathrm{ML}}\right] &=\frac{N-1}{N} \boldsymbol{\Sigma} \end{aligned} $$

极大似然估计的协方差矩阵与真实情况有偏差 (bias),因此进行修正:

$$ \widetilde{\mathbf{\Sigma}}=\frac{1}{N-1} \sum_{n=1}^{N}\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{\mathrm{ML}}\right)\left(\mathbf{x}_{n}-\boldsymbol{\mu}_{\mathrm{ML}}\right)^{\mathrm{T}} $$
2.3.5 序列估计 (Sequential estimation)

序列估计:

  • 基于在线学习,实时更新模型
$$ \begin{aligned} \boldsymbol{\mu}_{\mathrm{ML}}^{(N)} &=\frac{1}{N} \sum_{n=1}^{N} \mathbf{x}_{n} \\ &=\frac{1}{N} \mathbf{x}_{N}+\frac{1}{N} \sum_{n=1}^{N-1} \mathbf{x}_{n} \\ &=\frac{1}{N} \mathbf{x}_{N}+\frac{N-1}{N} \boldsymbol{\mu}_{\mathrm{ML}}^{(N-1)} \\ &=\boldsymbol{\mu}_{\mathrm{ML}}^{(N-1)}+\frac{1}{N}\left(\mathbf{x}_{N}-\boldsymbol{\mu}_{\mathrm{ML}}^{(N-1)}\right) \end{aligned} $$

Robbins-Monro algorithm (更通用的方法):

  • 对于下述式子,寻找到根 (root) 使 $f(\theta^*)=0$
$$ f(\theta) \equiv \mathbb{E}[z \mid \theta]=\int z p(z \mid \theta) \mathrm{d} z $$
  • 假设 $\mathbb{E}[(z-f)^2\mid \theta]<\infty$, 且 $f(\theta)>0$ 当 $\theta>\theta^*$; 并且 $f(\theta)<0$ 当 $\theta<\theta^*$

  • 因此可以使用如下序列迭代求解 $\theta^*$ :
$$ \theta^{(N)}=\theta^{(N-1)}+\alpha_{N-1}z(\theta^{N-1}) $$
  • 其中 ${a_N}$ 需要满足如下条件:
$$ \begin{aligned} \text{[保证能收敛]} \ \ & \lim_{N\rightarrow \infty} a_N=0 \\ \text{[能收敛到根]} \ \ & \sum_{N=1}^{\infty}a_N=\infty \\ \text{[累计噪声方差有限,不会影响收敛]} \ \ & \sum_{N=1}^{\infty}a_N^2<\infty \\ \end{aligned} $$
2.3.6 高斯的贝叶斯推断 (Bayesian inference for the Gaussian)

设随机变量 $x\sim\mathcal{N}(\mu,\sigma^2)$ ,进行高斯的贝叶斯推断。

第一种情况,已知 $\sigma^2$ ,求 $\mu$ 的概率分布 $p(\mu \mid \mathbf{X})$ 。

使用共轭先验的常规做法:

  • 写出似然函数
$$ p(\mathbf{X} \mid \mu)=\prod_{n=1}^{N} p\left(x_{n} \mid \mu\right)=\frac{1}{\left(2 \pi \sigma^{2}\right)^{N / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\} $$
  • 仿照似然函数的形式,给出共轭先验的形式,即高斯分布
$$ p(\mu)=\mathcal{N}\left(\mu \mid \mu_{0}, \sigma_{0}^{2}\right) $$
  • 给出后验的形式
$$ \begin{aligned} & p(\mu \mid \mathbf{X}) \propto p(\mathbf{X} \mid \mu) p(\mu)\\ & p(\mu \mid \mathbf{X})=\mathcal{N}\left(\mu \mid \mu_{N}, \sigma_{N}^{2}\right)\\ & \mu_{N}=\frac{\sigma^{2}}{N \sigma_{0}^{2}+\sigma^{2}} \mu_{0}+\frac{N \sigma_{0}^{2}}{N \sigma_{0}^{2}+\sigma^{2}} \mu_{\mathrm{ML}},\mu_{\mathrm{ML}}=\frac{1}{N} \sum_{n=1}^{N} x_{n}\\ & \frac{1}{\sigma_{N}^{2}}=\frac{1}{\sigma_{0}^{2}}+\frac{N}{\sigma^{2}} \end{aligned} $$

此处有一些性质值得我们进行观察,当观测数据 $N=0$ 时,后验的 $\mu_N$ 等于先验的 $\mu_0$ ,后验的 $\sigma_N$ 也等于先验的 $\sigma_0$ ;而当观察数据 $N \rightarrow \infty$ 时,后验的 $\mu_N$ 将等于极大似然估计得到的 $\mu_{\text{ML}}$ ,后验的 $\sigma_N$ 将等于 0,即后验分布变为 $p(\mu=\mu_{\text{ML}} \mid \mathbf{X})=1$ 。具体情况如下图所示,其中 $\mu_0=0,\mu_{\text{ML}}=0.8$ 。

另外,由于似然函数假设数据点之间独立,因此上述贝叶斯推断可以很容易地扩展成在线学习:

This sequential view of Bayesian inference is very general and applies to any problem in which the observed data are assumed to be independent and identically distributed.

接下来是第二种情况,已知 $\mu$ ,求 $\sigma^2$ 的分布,此处令 $\lambda \equiv 1 / \sigma^{2}$ ,其中 $\lambda$ 为精度 (precision)。

依然是相同的套路:

  • 写出似然函数
$$ p(\mathbf{X} \mid \lambda)=\prod_{n=1}^{N} \mathcal{N}\left(x_{n} \mid \mu, \lambda^{-1}\right) \propto \lambda^{N / 2} \exp \left\{-\frac{\lambda}{2} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\} $$
  • 因为似然函数中 exp 里只有 $\lambda$ 的一次项,因此用 gamma 分布来表示先验,其中 gamma 分布的期望和方差可以通过积分时将 $b\lambda$ 换元为 $t$ 得到;另外若 $a>0$ ,则函数积分值有限,若 $a\geq 1$ ,则分布有限,且概率存在极大值
$$ \begin{aligned} & \operatorname{Gam}(\lambda \mid a, b)=\frac{1}{\Gamma(a)} b^{a} \lambda^{a-1} \exp (-b \lambda) \\ &\mathbb{E}[\lambda] =\frac{a}{b} \\ &\operatorname{var}[\lambda] =\frac{a}{b^{2}} \end{aligned} $$

  • 给出后验形式 $\operatorname{Gam}\left(\lambda \mid a_{N}, b_{N}\right)$ ,其中 $\sigma_{\mathrm{ML}}^{2}$ 可以通过令 $p(\mathbf{X} \mid \lambda)$ 导数为 0 得到
$$ \begin{aligned} & p(\lambda \mid \mathbf{X}) \propto \lambda^{a_{0}-1} \lambda^{N / 2} \exp \left\{-b_{0} \lambda-\frac{\lambda}{2} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}\right\} \\ & a_{N}=a_{0}+\frac{N}{2}\\ & b_{N}=b_{0}+\frac{1}{2} \sum_{n=1}^{N}\left(x_{n}-\mu\right)^{2}=b_{0}+\frac{N}{2} \sigma_{\mathrm{ML}}^{2} \end{aligned} $$

然后是第三种情况, $\mu$ 与 $\lambda$ 均未知时, $p(\mu,\lambda)$ 的分布。此时略为复杂,因此只推导共轭先验的形式,后验的形式也可根据之前的方法继续推出。

  • 写出似然函数
$$ \begin{array}{c} p(\mathbf{X} \mid \mu, \lambda)=\prod_{n=1}^{N}\left(\frac{\lambda}{2 \pi}\right)^{1 / 2} \exp \left\{-\frac{\lambda}{2}\left(x_{n}-\mu\right)^{2}\right\} \\ \propto\left[\lambda^{1 / 2} \exp \left(-\frac{\lambda \mu^{2}}{2}\right)\right]^{N} \exp \left\{\lambda \mu \sum_{n=1}^{N} x_{n}-\frac{\lambda}{2} \sum_{n=1}^{N} x_{n}^{2}\right\} \end{array} $$
  • 将与 $\mu$ 和 $\lambda$ 无关的变量均变为常数,得到共轭先验的形式
$$ \begin{array}{l} p(\mu, \lambda) \propto\left[\lambda^{1 / 2} \exp \left(-\frac{\lambda \mu^{2}}{2}\right)\right]^{\beta} \exp \{c \lambda \mu-d \lambda\} \\ \quad=\exp \left\{-\frac{\beta \lambda}{2}(\mu-c / \beta)^{2}\right\} \lambda^{\beta / 2} \exp \left\{-\left(d-\frac{c^{2}}{2 \beta}\right) \lambda\right\} \end{array} $$

由于 $p(\mu, \lambda)=p(\mu \mid \lambda) p(\lambda)$ ,刚好对应表达式中的一、二部分,因此整理后得到:

$$ \begin{aligned} & p(\mu, \lambda)=\mathcal{N}\left(\mu \mid \mu_{0},(\beta \lambda)^{-1}\right) \operatorname{Gam}(\lambda \mid a, b) \\ &\mu_{0}=c / \beta, a=1+\beta / 2, b=d-c^{2} / 2 \beta \end{aligned} $$

此时 $p(\mu,\lambda)$ 服从 normal-gamma / Gaussian-gamma 分布:

当问题扩展成多变量时 $\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}, \mathbf{\Lambda}^{-1}\right)$ ,已知 $\mathbf{\Lambda}^{-1}$ , $\boldsymbol{\mu}$ 分布依然为高斯;但其它两种情况发生了改变。

已知 $\boldsymbol{\mu}$ , $\mathbf{\Lambda}^{-1}$ 的共轭先验为 Wishart distribution,其中 $\nu$ 为分布自由度:

$$ \begin{aligned} & \mathcal{W}(\boldsymbol{\Lambda} \mid \mathbf{W}, \nu)=B|\boldsymbol{\Lambda}|^{(\nu-D-1) / 2} \exp \left(-\frac{1}{2} \operatorname{Tr}\left(\mathbf{W}^{-1} \boldsymbol{\Lambda}\right)\right),B \ \text{is a constant} \\ & B(\mathbf{W}, \nu)=|\mathbf{W}|^{-\nu / 2}\left(2^{\nu D / 2} \pi^{D(D-1) / 4} \prod_{i=1}^{D} \Gamma\left(\frac{\nu+1-i}{2}\right)\right)^{-1} \end{aligned} $$

另外, $\boldsymbol{\mu}$ , $\mathbf{\Lambda}^{-1}$ 均未知时,共轭先验为 normal-Wishart or Gaussian-Wishart distribution:

$$ p\left(\boldsymbol{\mu}, \boldsymbol{\Lambda} \mid \boldsymbol{\mu}_{0}, \beta, \mathbf{W}, \nu\right)=\mathcal{N}\left(\boldsymbol{\mu} \mid \boldsymbol{\mu}_{0},(\beta \mathbf{\Lambda})^{-1}\right) \mathcal{W}(\boldsymbol{\Lambda} \mid \mathbf{W}, \nu) $$

最后总结一下:

2.3.7 t-分布 (Student’s t-distribution)

假设 $x\sim \mathcal{N}\left(x \mid \mu, \tau^{-1}\right)$ ,其中 $\mu$ 已知,而 $\tau^{-1}$ 服从 $\operatorname{Gam}(\tau \mid a, b)$ 的分布,则 $x$ 的边缘分布如下:

$$ \begin{aligned} p(x \mid \mu, a, b) &=\int_{0}^{\infty} \mathcal{N}\left(x \mid \mu, \tau^{-1}\right) \operatorname{Gam}(\tau \mid a, b) \mathrm{d} \tau \\ &=\int_{0}^{\infty} \frac{b^{a} e^{(-b \tau)} \tau^{a-1}}{\Gamma(a)}\left(\frac{\tau}{2 \pi}\right)^{1 / 2} \exp \left\{-\frac{\tau}{2}(x-\mu)^{2}\right\} \mathrm{d} \tau \\ &=\frac{b^{a}}{\Gamma(a)}\left(\frac{1}{2 \pi}\right)^{1 / 2}\left[b+\frac{(x-\mu)^{2}}{2}\right]^{-a-1 / 2} \Gamma(a+1 / 2) \end{aligned} $$

其中第二步的推导如下:

令 $\nu=2 a, \lambda=a / b$ ,替换上式中的 $a,b$ 后,即可推导出学生分布 (Student’s t-distribution):

$$ \operatorname{St}(x \mid \mu, \lambda, \nu)=\frac{\Gamma(\nu / 2+1 / 2)}{\Gamma(\nu / 2)}\left(\frac{\lambda}{\pi \nu}\right)^{1 / 2}\left[1+\frac{\lambda(x-\mu)^{2}}{\nu}\right]^{-\nu / 2-1 / 2} $$

其中 $\lambda$ 被称为 t-分布的精度 (precision),而 $\nu$ 被称为自由度,其对分布的影响如下:

当 $\nu=1$ 时,t-分布变为柯西分布 (Cauchy);当 $\nu\rightarrow\infty$ 时,t-分布变为 $\mathcal{N}\left(x \mid \mu, \lambda^{-1}\right)$ 。

t-分布可以看作是无限个高斯分布的组合,这使得 t-分布比起高斯分布在分布图像上 tail 更长,这也使得 t-分布更加鲁棒。由此,基于高斯分布下极大似然的最小二乘法在面对离群点时可能效果较差,可以考虑换成 t-分布。

接下来进行多元变量的 t-分布推导。

回到 $p(x \mid \mu, a, b)=\int_{0}^{\infty} \mathcal{N}\left(x \mid \mu, \tau^{-1}\right) \operatorname{Gam}(\tau \mid a, b) \mathrm{d} \tau$ 式子中,令 $\nu=2a,\lambda=a/b,\eta=\tau b / a$ ,目的是在 $p(x \mid \mu, a, b)$ 中加入高斯分布的 $\lambda$ ,转换后得到:

$$ \operatorname{St}(x \mid \mu, \lambda, \nu)=\int_{0}^{\infty} \mathcal{N}\left(x \mid \mu,(\eta \lambda)^{-1}\right) \operatorname{Gam}(\eta \mid \nu / 2, \nu / 2) \mathrm{d} \eta $$

将 $x$ 扩展成 $\mathbf{x}$ ,得到:

$$ \operatorname{St}(\mathbf{x} \mid \boldsymbol{\mu}, \boldsymbol{\Lambda}, \nu)=\int_{0}^{\infty} \mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu},(\eta \boldsymbol{\Lambda})^{-1}\right) \operatorname{Gam}(\eta \mid \nu / 2, \nu / 2) \mathrm{d} \eta $$

求出积分后得到:

$$ \begin{aligned} &\operatorname{St}(\mathbf{x} \mid \boldsymbol{\mu}, \boldsymbol{\Lambda}, \nu)=\frac{\Gamma(D / 2+\nu / 2)}{\Gamma(\nu / 2)} \frac{|\boldsymbol{\Lambda}|^{1 / 2}}{(\pi \nu)^{D / 2}}\left[1+\frac{\Delta^{2}}{\nu}\right]^{-D / 2-\nu / 2}\\ &\Delta^{2}=(\mathbf{x}-\boldsymbol{\mu})^{\mathrm{T}} \boldsymbol{\Lambda}(\mathbf{x}-\boldsymbol{\mu}) \end{aligned} $$

其中 $D$ 为 $\mathbf{x}$ 的维度, $\Delta^2$ 为 squared Mahalanobis distance,具体推导过程如下:

最后,我们求解 t-分布的期望、方差以及最值点:

$$ \begin{aligned} \mathbb{E}[\mathbf{x}] &=\boldsymbol{\mu}, & & \text { if } \quad \nu>1 \\ \operatorname{cov}[\mathbf{x}] &=\frac{\nu}{(\nu-2)} \mathbf{\Lambda}^{-1}, & & \text { if } \quad \nu>2 \\ \operatorname{mode}[\mathbf{x}] &=\boldsymbol{\mu} & & \end{aligned} $$

2.3.8 周期变量 (Periodic variables)

本章以角度 ( $\theta$ ) 为例,讲解如何用高斯分布来度量周期变量。

我们用单位圆上的 $\mathbf{x}=(x_1,x_2)$ 来代表 $\theta$ ,则假设 $\mathbf{x}\sim \mathcal{N}(\boldsymbol{\mu}=\left(\mu_{1}, \mu_{2}\right),\boldsymbol{\Sigma}=\sigma^{2} \mathbf{I})$ ,即:

$$ p\left(x_{1}, x_{2}\right)=\frac{1}{2 \pi \sigma^{2}} \exp \left\{-\frac{\left(x_{1}-\mu_{1}\right)^{2}+\left(x_{2}-\mu_{2}\right)^{2}}{2 \sigma^{2}}\right\} $$

接下来用极角坐标 $(r,\theta)$ 来代替 $\mathbf{x}$ ,即令 $x_1=r\cos\theta,x_2=r\sin\theta,\mu_1=r_0\cos\theta_0,\mu_2=r_0\sin\theta_0$ ,则高斯分布 exp 中的内容变换为:

$$ \begin{aligned} -& \frac{1}{2 \sigma^{2}}\left\{\left(r \cos \theta-r_{0} \cos \theta_{0}\right)^{2}+\left(r \sin \theta-r_{0} \sin \theta_{0}\right)^{2}\right\} \\ &=-\frac{1}{2 \sigma^{2}}\left\{1+r_{0}^{2}-2 r_{0} \cos \theta \cos \theta_{0}-2 r_{0} \sin \theta \sin \theta_{0}\right\} \\ &=\frac{r_{0}}{\sigma^{2}} \cos \left(\theta-\theta_{0}\right)+\text { const } \end{aligned} $$

令 $m=r_0/\sigma^2$ , $p(\theta)$ 转换为:

$$ \begin{aligned} & p\left(\theta \mid \theta_{0}, m\right)=\frac{1}{2 \pi I_{0}(m)} \exp \left\{m \cos \left(\theta-\theta_{0}\right)\right\}\\ & I_{0}(m)=\frac{1}{2 \pi} \int_{0}^{2 \pi} \exp \{m \cos \theta\} \mathrm{d} \theta \end{aligned} $$

上述即为 von Mises distribution, or the circular normal,其中 $\theta_0,m$ 分别表示均值与浓度参数 (concentration parameter)。如下为分布图:

该分布有两条性质:

  • 当 m 很大时,分布图集中在峰值 $\theta_0$ 处

  • 当 m 很大时,将变为高斯分布

接下来对该分布进行极大似然估计:

$$ \ln p\left(\mathcal{D} \mid \theta_{0}, m\right)=-N \ln (2 \pi)-N \ln I_{0}(m)+m \sum_{n=1}^{N} \cos \left(\theta_{n}-\theta_{0}\right) $$

分别对 $\theta_0$ 和 $m$ 求导,可以得到如下估计值:

$$ \begin{aligned} & \theta_{0}^{\mathrm{ML}}=\tan ^{-1}\left\{\frac{\sum_{n} \sin \theta_{n}}{\sum_{n} \cos \theta_{n}}\right\}\\ & A(m)=\frac{1}{N} \sum_{n=1}^{N} \cos \left(\theta_{n}-\theta_{0}^{\mathrm{ML}}\right)=\frac{I_{1}(m)}{I_{0}(m)},I_{1}(m)=I_{0}^{\prime}(m) \\ & A\left(m_{\mathrm{ML}}\right)=\left(\frac{1}{N} \sum_{n=1}^{N} \cos \theta_{n}\right) \cos \theta_{0}^{\mathrm{ML}}-\left(\frac{1}{N} \sum_{n=1}^{N} \sin \theta_{n}\right) \sin \theta_{0}^{\mathrm{ML}} \end{aligned} $$

最后,von Mises distribution 有一个局限,即其是单峰分布;但我们可以通过将多个该分布组合 (mixtures),来得到能够处理多峰分布的周期变量。

2.3.9 高斯混合 (Mixtures of Gaussians)

高斯混合,即将多个高斯分布线性组合。理论上来说,如果高斯分布的数量足够多,且可以任意调节均值、方差以及线性组合系数,几乎任何连续分布图都可以在任意的精度上拟合出来。

高斯混合 (mixture of Gaussians):

  • $\mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}{k}, \boldsymbol{\Sigma}{k}\right)$ 为混合的一个部分 (component)

  • $\pi_{k}$ 为混合系数 (mixing coefficients),满足 $\sum_{k=1}^{K} \pi_{k}=1$ 与 $0 \leqslant \pi_{k} \leqslant 1$

$$ p(\mathbf{x})=\sum_{k=1}^{K} \pi_{k} \mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right) $$

从贝叶斯推断视角出发:

  • 其中 $p(k|\mathbf{x})$ 被称为 responsibilities
$$ \begin{aligned} & p(\mathbf{x})=\sum_{k=1}^{K} p(k) p(\mathbf{x} \mid k) \\ & p(k)=\pi_k\\ & p(\mathbf{x} \mid k) = \mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}, \mathbf{\Sigma}_{k}\right) \\ & \begin{aligned} \gamma_{k}(\mathbf{x}) & \equiv p(k \mid \mathbf{x}) \\ &=\frac{p(k) p(\mathbf{x} \mid k)}{\sum_{l} p(l) p(\mathbf{x} \mid l)} \\ &=\frac{\pi_{k} \mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{k}, \mathbf{\Sigma}_{k}\right)}{\sum_{l} \pi_{l} \mathcal{N}\left(\mathbf{x} \mid \boldsymbol{\mu}_{l}, \mathbf{\Sigma}_{l}\right)} \end{aligned} \end{aligned} $$

从极大似然估计出发:

  • 无法直接得到必式解,需要使用迭代求解的优化方法
$$ \ln p(\mathbf{X} \mid \boldsymbol{\pi}, \boldsymbol{\mu}, \boldsymbol{\Sigma})=\sum_{n=1}^{N} \ln \left\{\sum_{k=1}^{K} \pi_{k} \mathcal{N}\left(\mathbf{x}_{n} \mid \boldsymbol{\mu}_{k}, \boldsymbol{\Sigma}_{k}\right)\right\} $$

2.4 指数族 (The Exponential Family)

指数族形式:

  • $\mathbf{x}$ 可以是标量或向量

  • $\eta$ 是分布的自然参数 (natural parameters)

  • $g(\eta)$ 用来标准化分布 $g(\boldsymbol{\eta}) \int h(\mathbf{x}) \exp {\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})} \mathrm{d} \mathbf{x}=1$

$$ p(\mathbf{x} \mid \boldsymbol{\eta})=h(\mathbf{x}) g(\boldsymbol{\eta}) \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})\right\} $$

接下来以三个指数族分布进行举例。

首先是伯努利分布 (Bernoulli distribution):

$$ \begin{aligned} p(x \mid \mu) &=\operatorname{Bern}(x \mid \mu)\\ & =\mu^{x}(1-\mu)^{1-x}\\ &=\exp \{x \ln \mu+(1-x) \ln (1-\mu)\} \\ &=(1-\mu) \exp \left\{\ln \left(\frac{\mu}{1-\mu}\right) x\right\} \end{aligned} $$

先关注 exp 中的形式,求出 $\eta$ :

$$ \begin{aligned} & \eta=\ln \left(\frac{\mu}{1-\mu}\right) \\ & \mu=\sigma(\eta)=\frac{1}{1+\exp (-\eta)}\\ \end{aligned} $$

最后得到指数族的标准形式:

$$ \begin{aligned} & p(x \mid \eta)=\sigma(-\eta) \exp (\eta x) \\ & u(x)=x \\ & h(x)=1 \\ & g(\eta)=\sigma(-\eta) \end{aligned} $$

接下来是多项式分布 (multinomial distribution):

$$ p(\mathbf{x} \mid \boldsymbol{\mu})=\prod_{k=1}^{M} \mu_{k}^{x_{k}}=\exp \left\{\sum_{k=1}^{M} x_{k} \ln \mu_{k}\right\} $$

其指数族标准形式如下:

$$ \begin{aligned} &p(\mathbf{x} \mid \boldsymbol{\eta})=\exp \left(\boldsymbol{\eta}^{\mathrm{T}} \mathbf{x}\right) \\ & \mathbf{u}(\mathbf{x})=\mathbf{x} \\ & h(\mathbf{x})=1 \\ & g(\boldsymbol{\eta})=1 \end{aligned} $$

最后是高斯分布 (Gaussian distribution):

$$ \begin{aligned} p\left(x \mid \mu, \sigma^{2}\right) &=\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}}(x-\mu)^{2}\right\} \\ &=\frac{1}{\left(2 \pi \sigma^{2}\right)^{1 / 2}} \exp \left\{-\frac{1}{2 \sigma^{2}} x^{2}+\frac{\mu}{\sigma^{2}} x-\frac{1}{2 \sigma^{2}} \mu^{2}\right\} \end{aligned} $$

其对应参数为:

$$ \begin{aligned} \boldsymbol{\eta} &=\left(\begin{array}{c} \mu / \sigma^{2} \\ -1 / 2 \sigma^{2} \end{array}\right) \\ \mathbf{u}(x) &=\left(\begin{array}{c} x \\ x^{2} \end{array}\right) \\ h(\mathbf{x}) &=(2 \pi)^{-1 / 2} \\ g(\boldsymbol{\eta}) &=\left(-2 \eta_{2}\right)^{1 / 2} \exp \left(\frac{\eta_{1}^{2}}{4 \eta_{2}}\right) \end{aligned} $$
2.4.1 极大似然与充分统计量 (Maximum likelihood and sufficient statistics)
$$ g(\boldsymbol{\eta}) \int h(\mathbf{x}) \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})\right\} \mathrm{d} \mathbf{x}=1 $$

上式是指数族分布需要满足的基础条件,对上式等号两边同时对 $\eta$ 求导,则可以得到下式:

$$ \begin{array}{l} \nabla g(\boldsymbol{\eta}) \int h(\mathbf{x}) \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})\right\} \mathrm{d} \mathbf{x} \\ +g(\boldsymbol{\eta}) \int h(\mathbf{x}) \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})\right\} \mathbf{u}(\mathbf{x}) \mathrm{d} \mathbf{x}=0 \end{array} $$

进一步化简可以得到 $\eta$ 的表达式:

$$ \begin{aligned} & -\frac{1}{g(\boldsymbol{\eta})} \nabla g(\boldsymbol{\eta})=g(\boldsymbol{\eta}) \int h(\mathbf{x}) \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \mathbf{u}(\mathbf{x})\right\} \mathbf{u}(\mathbf{x}) \mathrm{d} \mathbf{x}=\mathbb{E}[\mathbf{u}(\mathbf{x})]\\ & -\nabla \ln g(\boldsymbol{\eta})=\mathbb{E}[\mathbf{u}(\mathbf{x})] \end{aligned} $$

接下来对于数据 $\mathbf{X}={\mathbf{x_1},…,\mathbf{x_n}}$ 进行极大似然估计:

$$ p(\mathbf{X} \mid \boldsymbol{\eta})=\left(\prod_{n=1}^{N} h\left(\mathbf{x}_{n}\right)\right) g(\boldsymbol{\eta})^{N} \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \sum_{n=1}^{N} \mathbf{u}\left(\mathbf{x}_{n}\right)\right\} $$

对 $\eta$ 求导并令其等于 0 后,得到下式:

$$ -\nabla \ln g\left(\boldsymbol{\eta}_{\mathrm{ML}}\right)=\frac{1}{N} \sum_{n=1}^{N} \mathbf{u}\left(\mathbf{x}_{n}\right) $$

可以发现对于 $\eta$ 的求解,我们只需要保存 $\sum_{n=1}^{N} \mathbf{u}(\mathbf{x}_{n})$ 的数值,而不用保存整个数据集,因此该数值为指数族分布的充分统计量 (sufficient statistic)。

2.4.2 共轭先验 (Conjugate priors)

In general, for a given probability distribution $p(x|\eta)$ , we can seek a prior $p(\eta)$ that is conjugate to the likelihood function, so that the posterior distribution has the same functional form as the prior.

对于指数族分布,其共轭先验形式如下:

  • $f(\boldsymbol{\chi}, \nu)$ 为归一化参数
$$ p(\boldsymbol{\eta} \mid \boldsymbol{\chi}, \nu)=f(\boldsymbol{\chi}, \nu) g(\boldsymbol{\eta})^{\nu} \exp \left\{\nu \boldsymbol{\eta}^{\mathrm{T}} \boldsymbol{\chi}\right\} $$

验证一下上述形式是否成立,似然函数形式:

$$ p(\mathbf{X} \mid \boldsymbol{\eta})=\left(\prod_{n=1}^{N} h\left(\mathbf{x}_{n}\right)\right) g(\boldsymbol{\eta})^{N} \exp \left\{\boldsymbol{\eta}^{\mathrm{T}} \sum_{n=1}^{N} \mathbf{u}\left(\mathbf{x}_{n}\right)\right\} $$

由此可以得到后验形式:

$$ p(\boldsymbol{\eta} \mid \mathbf{X}, \boldsymbol{\chi}, \nu) \propto p(\mathbf{X} \mid \boldsymbol{\eta})p(\boldsymbol{\eta} \mid \boldsymbol{\chi}, \nu)\propto g(\boldsymbol{\eta})^{\nu+N} \exp \left\{\boldsymbol{\eta}^{\mathrm{T}}\left(\sum_{n=1}^{N} \mathbf{u}\left(\mathbf{x}_{n}\right)+\nu \boldsymbol{\chi}\right)\right\} $$

与先验形式一致,因此上述共轭形式成立。

2.4.3 无信息先验 (Noninformative priors)

在很多情况下,我们都对先验概率的形式一无所知,这时我们倾向于让先验形式对后验分布的影响越小越好,此时的先验就被称为无信息先验 (noninformative prior)。

当参数的取值有界时,可以根据均匀分布制定无信息先验;但当参数的取值无界时,均匀分布则无法归一化,是 improper 的。

但在实际应用中,improper priors 也可以使用,只要对应的后验分布可以归一化。

书中举了两个例子,第一个是已知 $\sigma^2$ 求 $\mu$ 分布的无信息先验 $p \left(\mu \mid \mu_{0}, \sigma_{0}^{2}\right)=\mathcal{N}\left(\mu \mid \mu_{0}, \sigma_{0}^{2}\right)$ ,此时令 $\sigma_0^2\rightarrow \infty$ 则先验不对后验产生影响。

第二个是已知 $\mu$ 求 $\sigma^2$ 的情况,此时先验符合 $\text{Gam}(\lambda|a_0,b_0)$ 分布,令 $a_0=b_0=0$ ,则先验不对后验产生影响,满足无信息先验的条件。

2.5 非参数化方法 (Nonparametric Methods)

参数化方法 (parametric methods):

  • 预先确定好数据分布的函数形式,再根据数据来确定函数中的参数

  • 缺点:预先选好的形式对数据的拟合能力可能很差

非参数化方法 (nonparametric methods):

  • 对数据的分布形式不做或做很少的假设

本节从最直观的直方图统计方法引入,介绍非参数化方法:

  • 将数据的定义域分为若干个等大的 bins

  • 每个 bins 的概率用频率 $p_{i}=\frac{n_{i}}{N \Delta_{i}}$ 来定义

在上图中,绿线为原始数据分布, $\Delta$ 为 bins 选取的大小。不难发现, $\Delta$ 太大和太小都不能很好的拟合数据,大小适中的 $\Delta$ 反而效果好一些。

总结一下,直方图统计法的优缺点:

  • 【优点 1】直方图计算出来后,无需再保存原始数据

  • 【优点 2】比较方便处理顺序到达的数据 (online learning)

  • 【缺点 1】由于每个 bins 区间的左右开闭性,导致分布不连续

  • 【缺点 2】如果数据是 D 维,每维开 M 个 bins,则 bins 的数量将达到 $M^D$ ,指数爆炸

在实际中,直方图统计法主要用于在某一两个维度上对数据分布有一个粗糙的直观理解,一般不用于概率分布估计。

但从该方法依然给了我们一些启发:

  • 估计某点的概率密度,我们需要考虑该点附近的数据;直方图统计中,bins 的宽度就相当于一个自然平滑参数 (natural smoothing parameter),对局部区域的空间大小进行了描述

  • 在选取自然平滑参数时,太大和太小都不合适

2.5.1 核密度估计 (Kernel density estimators)

根据之前得到的启发,假设一个小区域 $\mathcal{R}$ 包含 $\mathbf{x}$ ,则 $\mathbf{x}$ 落入 $\mathcal{R}$ 的概率为:

$$ P=\int_{\mathcal{R}} p(\mathbf{x}) \mathrm{d} \mathbf{x} $$

进一步地,我们可以求出 $N$ 个数据,共 $K$ 个数据落入 $\mathcal{R}$ 中的概率:

$$ \operatorname{Bin}(K \mid N, P)=\frac{N !}{K !(N-K) !} P^{K}(1-P)^{N-K} $$

不难发现这是一个二项分布,因此可以直接求出下述期望与方差:

$$ \begin{aligned} & \mathbb{E}[K / N]=\displaystyle\frac{\mathbb{E}[K]}{N}=P\\ & \operatorname{var}[K / N]=\displaystyle\frac{\operatorname{var}[K]}{N^2}=P(1-P) / N \end{aligned} $$

继续观察可以发现,当 $N\rightarrow\infty$ 时, $K/N$ 的分布将聚集在均值 $P$ 的附近,即:

$$ K \simeq N P $$

另外,如果区域 $\mathcal{R}$ 足够小,则假设该区域内概率处处相等,令其容量为 $V$ ,得到:

$$ P \simeq p(\mathbf{x}) V $$

最终,依据两条看似有些矛盾的假设,得到 $p(x)$ 表达式:

  • 【假设 1】 $N$ 足够大

  • 【假设 2】 $\mathcal{R}$ 容量足够小,即 $V$ 足够小

$$ p(\mathbf{x})=\frac{K}{N V} $$

根据这两条假设,可以衍生出两种非参数估计方法:

  • 【方法 1】固定 $K$ ,根据数据确定 $V$ ,即 $K$ 近邻方法 (K-nearest-neighbour technique)

  • 【方法 2】固定 $V$ ,根据数据确定 $K$ ,即核方法 (kernel approach)

It can be shown that both the K-nearest-neighbour density estimator and the kernel density estimator converge to the true probability density in the limit $N\rightarrow \infty$ provided $V$ shrinks suitably with $N$, and $K$ grows with $N$ (Duda and Hart, 1973).

本小节主要介绍核方法,即固定 $V$ ,由数据确定 $K$ ,因此首先定义 $k(\mathbf{u})$ 函数 (kernel function / Parzen window),用于 $K$ 的确定:

$$ k(\mathbf{u})=\left\{\begin{array}{ll} 1, & \left|u_{i}\right| \leqslant 1 / 2, \quad i=1, \ldots, D \\ 0, & \text { otherwise } \end{array}\right. $$

进一步地,我们可以根据直接确定 $K$ :

$$ K=\sum_{n=1}^{N} k\left(\frac{\mathbf{x}-\mathbf{x}_{n}}{h}\right) $$

上述式子思想较简单,即根据有多少个数据落在了以 $\mathbf{x}$ 为中心的各维度为 $h$ 的超几何体内,来确定 $K$ 。其中 $h^D$ 可以当作 $V$ 的度量,因此 $p(\mathbf{x})$ 如下:

$$ p(\mathbf{x})=\frac{1}{N} \sum_{n=1}^{N} \frac{1}{h^{D}} k\left(\frac{\mathbf{x}-\mathbf{x}_{n}}{h}\right) $$

但这种直接的度量方法有一个缺点,即在每个超几何体的边界仍然是不连续的,因此可以将 kernel function 改为高斯分布,得到如下模型:

$$ p(\mathbf{x})=\frac{1}{N} \sum_{n=1}^{N} \frac{1}{\left(2 \pi h^{2}\right)^{1 / 2}} \exp \left\{-\frac{\left\|\mathbf{x}-\mathbf{x}_{n}\right\|^{2}}{2 h^{2}}\right\} $$

上述模型可以理解为每一个数据点都代表了一个高斯分布,新数据点的概率等于,其它所有数据点对应的高斯分布对其概率的贡献均值。下图中蓝色为高斯 kernel function 的拟合结果,绿色为真实分布。

当然 kernel function 也可以进行修改,只需满足下述两个条件即可:

$$ \begin{array}{r} k(\mathbf{u}) \geqslant 0 \\ \int k(\mathbf{u}) \mathrm{d} \mathbf{u}=1 \end{array} $$

最后总结下该方法的优缺点:

  • 【优点】无需训练集

  • 【缺点】需要保存数据集的所有数据

2.5.2 最近邻法 (Nearest-neighbour methods)

固定 K,对于新的数据点不断扩大 V 使得包含 K 个数据,这种方法被称为 K 近邻 (K nearest neighbours),该方法拟合效果如下:

另外需要注意,K 近邻模型不是真正的概率密度模型,因为在所有空间上的积分是发散的,不满足归一化的性质。

接下来考虑用 KNN 进行分类,假设共 $N$ 个数据,其中类别为 $C_k$ 的数据有 $N_k$ 个。先对于一个新数据,其包含 $K$ 个数据的空间大小为 $V$ ,且其中 $C_k$ 类别的数据共 $K_k$ 个,则可根据贝叶斯进行类别估计:

$$ \begin{aligned} & p\left(\mathbf{x} \mid \mathcal{C}_{k}\right)=\frac{K_{k}}{N_{k} V}\\ & p(\mathbf{x})=\frac{K}{N V}\\ & p\left(\mathcal{C}_{k}\right)=\frac{N_{k}}{N}\\ & p\left(\mathcal{C}_{k} \mid \mathbf{x}\right)=\frac{p\left(\mathbf{x} \mid \mathcal{C}_{k}\right) p\left(\mathcal{C}_{k}\right)}{p(\mathbf{x})}=\frac{K_{k}}{K} \end{aligned} $$

为了让分类错误率最低,该数据点的类别由最近的 K 个数据中,最多出现的类别决定。应用该模型,可以得到如下的示例结果图:

当 K = 1 时,且 $N\rightarrow\infty$ ,K 近邻方法的错误率不高于最优分类器错误率的两倍,证明如下:

K 近邻方法与 kernel 方法一样,当平滑参数较小时,会拟合噪音;太大时,则可能丢失结构。另外这两种方法都需要固定 K 或 V,但在实际数据分布中,数据空间中的不同区域,需要不同的 K、V 选择才能实现更准确的估计,而这也是非参数估计的一种局限。