Skip to content

Commit 24cf9ec

Browse files
committed
BayesianLR plus Gaussian process
1 parent cfe56b7 commit 24cf9ec

File tree

4 files changed

+156
-0
lines changed

4 files changed

+156
-0
lines changed

17.BayesianLR.md

+62
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,62 @@
1+
# 贝叶斯线性回归
2+
3+
我们知道,线性回归当噪声为高斯分布的时候,最小二乘损失导出的结果相当于对概率模型应用 MLE,引入参数的先验时,先验分布是高斯分布,那么 MAP的结果相当于岭回归的正则化,如果先验是拉普拉斯分布,那么相当于 Lasso 的正则化。这两种方案都是点估计方法。我们希望利用贝叶斯方法来求解参数的后验分布。
4+
5+
线性回归的模型假设为:
6+
$$
7+
\begin{align}f(x)=w^Tx
8+
\\y=f(x)+\varepsilon\\
9+
\varepsilon\sim\mathcal{N}(0,\sigma^2)
10+
\end{align}
11+
$$
12+
在贝叶斯方法中,需要解决推断和预测两个问题。
13+
14+
## 推断
15+
16+
引入高斯先验:
17+
$$
18+
p(w)=\mathcal{N}(0,\Sigma_p)
19+
$$
20+
对参数的后验分布进行推断:
21+
$$
22+
p(w|X,Y)=\frac{p(w,Y|X)}{p(Y|X)}=\frac{p(Y|w,X)p(w|X)}{\int p(Y|w,X)p(w|X)dw}
23+
$$
24+
分母和参数无关,由于 $p(w|X)=p(w)$,代入先验得到:
25+
$$
26+
p(w|X,Y)\propto \prod\limits_{i=1}^N\mathcal{N}(y_i|w^Tx_i,\sigma^2)\cdot\mathcal{N}(0,\Sigma_p)
27+
$$
28+
高斯分布取高斯先验的共轭分布依然是高斯分布,于是可以得到后验分布也是一个高斯分布。第一项:
29+
$$
30+
\begin{align}\prod\limits_{i=1}^N\mathcal{N}(y_i|w^Tx_i,\sigma^2)&=\frac{1}{(2\pi)^{N/2}\sigma^N}\exp(-\frac{1}{2\sigma^2}\sum\limits_{i=1}^N(y_i-w^Tx_i)^2)\nonumber\\
31+
&=\frac{1}{(2\pi)^{N/2}\sigma^N}\exp(-\frac{1}{2}(Y-Xw)^T(\sigma^{-2}\mathbb{I})(Y-Xw))
32+
\nonumber\\&=\mathcal{N}(Xw,\sigma^2\mathbb{I})
33+
\end{align}
34+
$$
35+
代入上面的式子:
36+
$$
37+
p(w|X,Y)\propto\exp(-\frac{1}{2\sigma^2}(Y-Xw)^T\sigma^{-2}\mathbb{I}(Y-Xw)-\frac{1}{2}w^T\Sigma_p^{-1}w)
38+
$$
39+
假定最后得到的高斯分布为:$\mathcal{N}(\mu_w,\Sigma_w)$。对于上面的分布,采用配方的方式来得到最终的分布,指数上面的二次项为:
40+
$$
41+
-\frac{1}{2\sigma^2}w^TX^TXw-\frac{1}{2}w^T\Sigma_p^{-1}w
42+
$$
43+
于是:
44+
$$
45+
\Sigma_w^{-1}=\sigma^{-2}X^TX+\Sigma_p^{-1}=A
46+
$$
47+
一次项:
48+
$$
49+
\frac{1}{2\sigma^2}2Y^TXw=\sigma^{-2}Y^TXw
50+
$$
51+
于是:
52+
$$
53+
\mu_w^T\Sigma_w^{-1}=\sigma^{-2}Y^TX\Rightarrow\mu_w=\sigma^{-2}A^{-1}X^TY
54+
$$
55+
56+
## 预测
57+
58+
给定一个 $x^*$,求解 $y^*$,所以 $f(x^*)=x^{*T}w$,代入参数后验,有 $x^{*T}w\sim \mathcal{N}(x^{*T}\mu_w,x^{*T}\Sigma_wx^*)$,添上噪声项:
59+
$$
60+
p(y^*|X,Y,x^*)=\int_wp(y^*|w,X,Y,x^*)p(w|X,Y,x^*)dw=\int_wp(y^*|w,x^*)p(w|X,Y)dw\\
61+
=\mathcal{N}(x^{*T}\mu_w,x^{*T}\Sigma_wx^*+\sigma^2)
62+
$$

18.GaussianProcess.md

+94
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,94 @@
1+
# 高斯过程回归
2+
3+
将一维高斯分布推广到多变量中就得到了高斯网络,将多变量推广到无限维,就得到了高斯过程,高斯过程是定义在连续域(时间空间)上的无限多个高维随机变量所组成的随机过程。
4+
5+
在时间轴上的任意一个点都满足高斯分布吗,将这些点的集合叫做高斯过程的一个样本。
6+
7+
> 对于时间轴上的序列 $\xi_t$,如果 $\forall n\in N^+,t_i\in T$,有 $\xi_{t_1-t_n}\sim \mathcal{N}(\mu_{t_1-t_n},\Sigma_{t_1-t_n})$, 那么 $\{\xi_t\}_{t\in T}$ 是一个高斯过程。
8+
>
9+
> 高斯过程有两个参数(高斯过程存在性定理),均值函数 $m(t)=\mathbb{E}[\xi_t]$ 和协方差函数 $k(s,t)=\mathbb{E}[(\xi_s-\mathbb{E}[\xi_s])(\xi_t-\mathbb{E}[\xi_t])]$。
10+
11+
我们将贝叶斯线性回归添加核技巧的这个模型叫做高斯过程回归,高斯过程回归分为两种视角:
12+
13+
1. 权空间的视角-核贝叶斯线性回归,相当于 $x$ 为 $t$,在每个时刻的高斯分布来源于权重,根据上面的推导,预测的函数依然是高斯分布。
14+
2. 函数空间的视角-高斯分布通过函数 $f(x)$ 来体现。
15+
16+
## 核贝叶斯线性回归
17+
18+
贝叶斯线性回归可以通过加入核函数的方法来解决非线性函数的问题,将 $f(x)=x^Tw$ 这个函数变为 $f(x)=\phi(x)^Tw$(当然这个时候,$ \Sigma_p$ 也要变为更高维度的),变换到更高维的空间,有:
19+
$$
20+
\begin{align}f(x^*)\sim \mathcal{N}(\phi(x^*)^{T}\sigma^{-2}A^{-1}\Phi^TY,\phi(x^*)^{T}A^{-1}\phi(x^*))\\
21+
A=\sigma^{-2}\Phi^T\Phi+\Sigma_p^{-1}
22+
\end{align}
23+
$$
24+
其中,$\Phi=(\phi(x_1),\phi(x_2),\cdots,\phi(x_N))^T$。
25+
26+
为了求解 $A^{-1}$,可以利用 Woodbury Formula,$A=\Sigma_p^{-1},C=\sigma^{-2}\mathbb{I}$:
27+
$$
28+
(A+UCV)^{-1}=A^{-1}-A^{-1}U(C^{-1}+VA^{-1}U)^{-1}VA^{-1}
29+
$$
30+
所以 $A^{-1}=\Sigma_p-\Sigma_p\Phi^T(\sigma^2\mathbb{I}+\Phi\Sigma_p\Phi^T)^{-1}\Phi\Sigma_p$
31+
32+
也可以用另一种方法:
33+
$$
34+
\begin{align}
35+
A&=\sigma^{-2}\Phi^T\Phi+\Sigma_p^{-1}\nonumber\\
36+
\Leftrightarrow A\Sigma_p&=\sigma^{-2}\Phi^T\Phi\Sigma_p+\mathbb{I}\nonumber\\
37+
\Leftrightarrow A\Sigma_p\Phi^T&=\sigma^{-2}\Phi^T\Phi\Sigma_p\Phi^T+\Phi^T=\sigma^{-2}\Phi^T(k+\sigma^2\mathbb{I})\nonumber\\
38+
\Leftrightarrow \Sigma_p\Phi^T&=\sigma^{-2}A^{-1}\Phi^T(k+\sigma^2\mathbb{I})\nonumber\\
39+
\Leftrightarrow \sigma^{-2}A^{-1}\Phi^T&=\Sigma_p\Phi^T(k+\sigma^2\mathbb{I})^{-1}\nonumber\\
40+
\Leftrightarrow \phi(x^*)^T\sigma^{-2}A^{-1}\Phi^T&=\phi(x^*)^T\Sigma_p\Phi^T(k+\sigma^2\mathbb{I})^{-1}
41+
\end{align}
42+
$$
43+
上面的左边的式子就是变换后的均值,而右边的式子就是不含 $A^{-1}$ 的式子,其中 $k=\Phi\Sigma_p\Phi^T$。
44+
45+
根据 $A^{-1}$ 得到方差为:
46+
$$
47+
\phi(x^*)^T\Sigma_p\phi(x^*)-\phi(x^*)^T\Sigma_p\Phi^T(\sigma^2\mathbb{I}+k)^{-1}\Phi\Sigma_p\phi(x^*)
48+
$$
49+
上面定义了:
50+
$$
51+
k=\Phi\Sigma_p\Phi^T
52+
$$
53+
我们看到,在均值和方差中,含有下面四项:
54+
$$
55+
\phi(x^*)^T\Sigma_p\Phi^T,\phi(x^*)^T\Sigma_p\phi(x^*),\phi(x^*)^T\Sigma_p\Phi^T,\Phi\Sigma_p\phi(x^*)
56+
$$
57+
展开后,可以看到,有共同的项:$k(x,x')=\phi(x)^T\Sigma_p\phi(x‘)$。由于 $\Sigma_p$ 是正定对称的方差矩阵,所以,这是一个核函数。
58+
59+
对于高斯过程中的协方差:
60+
$$
61+
k(t,s)=Cov[f(x),f(x')]=\mathbb{E}[\phi(x)^Tww^T\phi(x')]=\phi(x)^T\mathbb{E}[ww^T]\phi(x')=\phi(x)^T\Sigma_p\phi(x')
62+
$$
63+
我们可以看到,这个就对应着上面的核函数。因此我们看到 $\{f(x)\}$ 组成的组合就是一个高斯过程。
64+
65+
## 函数空间的观点
66+
67+
相比权重空间,我们也可以直接关注 $f$ 这个空间,对于预测任务,这就是类似于求:
68+
$$
69+
p(y^*|X,Y,x^*)=\int_fp(y^*|f,X,Y,x^*)p(f|X,Y,x^*)df
70+
$$
71+
对于数据集来说,取 $f(X)\sim\mathcal{N}(\mu(X),k(X,X)),Y=f(X)+\varepsilon\sim\mathcal{N}(\mu(X),k(X,X)+\sigma^2\mathbb{I})$。预测任务的目的是给定一个新数据序列 $X^*=(x_1^*,\cdots,x_M^*)^T$,得到 $Y^*=f(X^*)+\varepsilon$。我们可以写出:
72+
$$
73+
\begin{pmatrix}Y\\f(X^*)\end{pmatrix}\sim\mathcal{N}\left(\begin{pmatrix}\mu(X)\\\mu(X^*)\end{pmatrix},\begin{pmatrix}k(X,X)+\sigma^2\mathbb{I}&k(X,X^*)\\k(X^*,X)&k(X^*,X^*)\end{pmatrix}\right)
74+
$$
75+
根据高斯分布的方法:
76+
$$
77+
\begin{align}x=\begin{pmatrix}x_a\\x_b\end{pmatrix}\sim\mathcal{N}\left(\begin{pmatrix}\mu_a\\\mu_b\end{pmatrix},\begin{pmatrix}\Sigma_{aa}&\Sigma_{ab}\\\Sigma_{ba}&\Sigma_{bb}\end{pmatrix}\right)\\
78+
x_b|x_a\sim\mathcal{N}(\mu_{b|a},\Sigma_{b|a})\\
79+
\mu_{b|a}=\Sigma_{ba}\Sigma_{aa}^{-1}(x_a-\mu_a)+\mu_b\\
80+
\Sigma_{b|a}=\Sigma_{bb}-\Sigma_{ba}\Sigma_{aa}^{-1}\Sigma_{ab}
81+
\end{align}
82+
$$
83+
可以直接写出:
84+
$$
85+
p(f(X^*)|X,Y,X^*)=p(f(X^*)|Y)\\
86+
=\mathcal{N}(k(X^*,X)[k(X,X)+\sigma^2\mathbb{I}]^{-1}(Y-\mu(X))+\mu(X^*),\\
87+
k(X^*,X^*)-k(X^*,X)[k(X,X)+\sigma^2\mathbb{I}]^{1}k(X,X^*))
88+
$$
89+
所以对于 $Y=f(X^*)+\varepsilon$:
90+
$$
91+
\mathcal{N}(k(X^*,X)[k(X,X)+\sigma^2\mathbb{I}]^{-1}(Y-\mu(X))+\mu(X^*),\\
92+
k(X^*,X^*)-k(X^*,X)[k(X,X)+\sigma^2\mathbb{I}]^{1}k(X,X^*)+\sigma^2\mathbb{I})
93+
$$
94+
我们看到,函数空间的观点更加简单易于求解。

pdf/17.BayesianLR.pdf

513 KB
Binary file not shown.

pdf/18.GaussianProcess.pdf

985 KB
Binary file not shown.

0 commit comments

Comments
 (0)