File tree 2 files changed +65
-0
lines changed
2 files changed +65
-0
lines changed Original file line number Diff line number Diff line change
1
+ # 前馈神经网络
2
+
3
+ 机器学习我们已经知道可以分为两大流派:
4
+
5
+ 1 . 频率派,这个流派的方法叫做统计学习,根据具体问题有下面的算法:
6
+
7
+ 1 . 正则化,L1,L2 等
8
+
9
+ 2 . 核化,如核支撑向量机
10
+
11
+ 3 . 集成化,AdaBoost,RandomForest
12
+
13
+ 4 . 层次化,神经网络,神经网络有各种不同的模型,有代表性的有:
14
+
15
+ 1 . 多层感知机
16
+ 2 . Autoencoder
17
+ 3 . CNN
18
+ 4 . RNN
19
+
20
+ 这几种模型又叫做深度神经网络。
21
+
22
+ 2 . 贝叶斯派,这个流派的方法叫概率图模型,根据图特点分为:
23
+
24
+ 1 . 有向图-贝叶斯网络,加入层次化后有深度有向网络,包括
25
+ 1 . Sigmoid Belief Network
26
+ 2 . Variational Autoencoder
27
+ 3 . GAN
28
+ 2 . 无向图-马尔可夫网络,加入层次化后有深度玻尔兹曼机。
29
+ 3 . 混合,加入层次化后有深度信念网络
30
+
31
+ 这几个加入层次化后的模型叫做深度生成网络。
32
+
33
+ 从广义来说,深度学习包括深度生成网络和深度神经网络。
34
+
35
+ ## From PLA to DL
36
+
37
+ * 1958,PLA
38
+ * 1969,PLA 不能解决 XOR 等非线性数据
39
+ * 1981,MLP,多层感知机的出现解决了上面的问题
40
+ * 1986,BP 算法应用在 MLP 上,RNN
41
+ * 1989,CNN,Univeral Approximation Theorem,但是于此同时,由于深度和宽度的相对效率不知道,并且无法解决 BP 算法的梯度消失问题
42
+ * 1993,1995,SVM + kernel,AdaBoost,RandomForest,这些算法的发展,DL 逐渐没落
43
+ * 1997,LSTM
44
+ * 2006,基于 RBM 的 深度信念网络和深度自编码
45
+ * 2009,GPU的发展
46
+ * 2011,在语音方面的应用
47
+ * 2012,ImageNet
48
+ * 2013,VAE
49
+ * 2014,GAN
50
+ * 2016,AlphaGo
51
+ * 2018,GNN
52
+
53
+ DL 不是一个新的东西,其近年来的大发展主要原因如下:
54
+
55
+ 1 . 数据量变大
56
+ 2 . 分布式计算的发展
57
+ 3 . 硬件算力的发展
58
+
59
+ ## 非线性问题
60
+
61
+ 对于非线性的问题,有三种方法:
62
+
63
+ 1 . 非线性转换,将低维空间转换到高维空间(Cover 定理),从而变为一个线性问题。
64
+ 2 . 核方法,由于非线性转换是变换为高维空间,因此可能导致维度灾难,并且可能很难得到这个变换函数,核方法不直接寻找这个转换,而是寻找一个内积。
65
+ 3 . 神经网络方法,将复合运算变为基本的线性运算的组合。
You can’t perform that action at this time.
0 commit comments