【深度学习基础7】预训练、激活函数、权重初始化、块归一化

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

一、Unsupervised Pre-training

得益于 Hinton and Salakhutdinov 在 2006 年的开创性工作— 无监督预训(unsupervised pre-training);在《Reducing the dimensionality of data with neural networks.》这篇论文中,他们在 RBMs 中引入无监督预训练,下面我们将在Autoencoders中讲解这一方法(建议了解Restricted 玻尔兹曼机):
在这里插入图片描述
经过这一步后,第一层的权重被训练,使得 h1 捕获输入 x 的重要信息。然后,将第一层的权重固定,在第二层上重复这一过程。经过这一步后,第二层的权重被训练,使得 h2 捕获 h1 的重要信息,继续这一过程,直到最后一个隐含层。【最后一个隐含层是输出层的前一层

预训练结束后,使用训练出的权重来初始化隐含层的权重。所得到的网络能够学习到输入数据类别独立的特征表示 (class independent 因为没有使用到数据的标签 y)。 预训练结束后,再在网络上增加输出层,使用特定的目标(或损失函数)来训练整个网络。整个过程可以理解为:先使用无监督的预训练(无监督的目标)来初始化网络权重,再使用特定有监督的目标来 fine tune 整个网络。

二、激活函数

详见:

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

“【深度学习基础7】预训练、激活函数、权重初始化、块归一化” 的相关文章