Skip to content

Commit 896dd1e

Browse files
committed
NN
1 parent efeaf6a commit 896dd1e

File tree

2 files changed

+65
-0
lines changed

2 files changed

+65
-0
lines changed

21.NN.md

+65
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,65 @@
1+
# 前馈神经网络
2+
3+
机器学习我们已经知道可以分为两大流派:
4+
5+
1. 频率派,这个流派的方法叫做统计学习,根据具体问题有下面的算法:
6+
7+
1. 正则化,L1,L2 等
8+
9+
2. 核化,如核支撑向量机
10+
11+
3. 集成化,AdaBoost,RandomForest
12+
13+
4. 层次化,神经网络,神经网络有各种不同的模型,有代表性的有:
14+
15+
1. 多层感知机
16+
2. Autoencoder
17+
3. CNN
18+
4. RNN
19+
20+
这几种模型又叫做深度神经网络。
21+
22+
2. 贝叶斯派,这个流派的方法叫概率图模型,根据图特点分为:
23+
24+
1. 有向图-贝叶斯网络,加入层次化后有深度有向网络,包括
25+
1. Sigmoid Belief Network
26+
2. Variational Autoencoder
27+
3. GAN
28+
2. 无向图-马尔可夫网络,加入层次化后有深度玻尔兹曼机。
29+
3. 混合,加入层次化后有深度信念网络
30+
31+
这几个加入层次化后的模型叫做深度生成网络。
32+
33+
从广义来说,深度学习包括深度生成网络和深度神经网络。
34+
35+
## From PLA to DL
36+
37+
* 1958,PLA
38+
* 1969,PLA 不能解决 XOR 等非线性数据
39+
* 1981,MLP,多层感知机的出现解决了上面的问题
40+
* 1986,BP 算法应用在 MLP 上,RNN
41+
* 1989,CNN,Univeral Approximation Theorem,但是于此同时,由于深度和宽度的相对效率不知道,并且无法解决 BP 算法的梯度消失问题
42+
* 1993,1995,SVM + kernel,AdaBoost,RandomForest,这些算法的发展,DL 逐渐没落
43+
* 1997,LSTM
44+
* 2006,基于 RBM 的 深度信念网络和深度自编码
45+
* 2009,GPU的发展
46+
* 2011,在语音方面的应用
47+
* 2012,ImageNet
48+
* 2013,VAE
49+
* 2014,GAN
50+
* 2016,AlphaGo
51+
* 2018,GNN
52+
53+
DL 不是一个新的东西,其近年来的大发展主要原因如下:
54+
55+
1. 数据量变大
56+
2. 分布式计算的发展
57+
3. 硬件算力的发展
58+
59+
## 非线性问题
60+
61+
对于非线性的问题,有三种方法:
62+
63+
1. 非线性转换,将低维空间转换到高维空间(Cover 定理),从而变为一个线性问题。
64+
2. 核方法,由于非线性转换是变换为高维空间,因此可能导致维度灾难,并且可能很难得到这个变换函数,核方法不直接寻找这个转换,而是寻找一个内积。
65+
3. 神经网络方法,将复合运算变为基本的线性运算的组合。

pdf/21.NN.pdf

57.8 KB
Binary file not shown.

0 commit comments

Comments
 (0)