AlexNet

时间:2021-03-02 11:48:54   收藏:0   阅读:0

一、AlexNet网络

1.1 结构

技术图片

处理的步骤为

conv1 relu1 norm1 \(\rightarrow\) pool1 \(\rightarrow\) conv2 relu2 norm2 \(\rightarrow\) pool2 \(\rightarrow\) conv3 relu3 \(\rightarrow\) conv4 relu4 \(\rightarrow\) conv5 relu5 \(\rightarrow\) fc6 relu6 dropout6 \(\rightarrow\) fc7 relu7 dropout7 \(\rightarrow\) fc8(logits)\(\rightarrow\) softmax

1.2 创新点

二、Relu

2.1 激活函数

激活函数有很多种,一般一个网络只选择一种。常见激活函数如下,

2.2 Relu优点

三、Dropout层

作用是随机将一定比例的神经元置为0。对于一个有N个节点的神经网络,有了dropout后,就可以看做是2n个模型的集合了,这相当于机器学习中的模型融合ensemble。

技术图片

四、Softmax与Cross Entropy

技术图片

softmax作用 cross entropy作用
将神经网络的输出变为概率分布。 交叉熵衡量两个概率分布的距离
1.数据之和为1 1.值越小,两个概率越接近
2.负数变为正数 2.值越大,两个概率越不接近
[2,0.5,-3]--->转变为[0.81,0.18,0.01] 模型1预测的概率分布为[0.81,0.18,0.01], 则loss1 = -[\(1\times log(0.81)\)+\(0 \times log(0.18)\)+\(0\times log(0.01)\)]=0.21

五、卷积

5.1 网络参数

网络层 kernel deepth strids padding input output parameters
conv1 [11,11] 96 4 VALID [227,227,3] [55,55,96] \begin{equation}(11\times 11\times 3 +1 ) \times 96\end{equation}
pool1 [3,3] 96 2 VALID [55,55,96] [27,27,96] ---
conv2_1 [5,5] 128 1 SAME [27,27,48] [27,27,128] \begin{equation} (5\times 5\times 48+1) \times 128\end{equation}
conv2_2 [5,5] 128 1 SAME [27,27,48] [27,27,128] \begin{equation}(5\times 5\times 48+1)\times 128\end{equation}
concate --- --- --- --- ---- [27,27,256] ---
pool2 [3,3] 256 2 VALID [27,27,256] [13,13,256] ---

5.2 计算公式

六、训练

6.1 训练数据

6.2 超参数

卷积核初始化方式:均值为0,方差为1的高斯分布。
偏置初始化方式:2,4,5卷积层及全连接层初始化为1,剩余层初始化为0。

评论(0
© 2014 mamicode.com 版权所有 京ICP备13008772号-2  联系我们:gaon5@hotmail.com
迷上了代码!