ImageNet Classification with Deep Convolutional Neural Network(AlexNet)论文翻译

时间:2020-03-14 19:53:58   收藏:0   阅读:70

@

0. Abstract

1. Introduction

2. The Dataset

3. The Architecture

3.1 ReLU Nonlinearity

3.3 Local Response Normalization

ReLUs的理想特性是不需要输入规范化来防止它们饱和。如果至少有一些训练例子产生了对ReLU的正向输入,学习将发生在该神经元中。然而,我们仍然发现下面的局部规范化方案有助于推广。用a i x,y表示在(x,y)位置应用核i,然后应用ReLU非线性计算出的神经元活动,响应规范化活动bix,y由表达式给出$b_x,y^i=a{x,y}^i/(k+\alpha\sum_{j=max(0,i-n/2)}^{min(N-1,i+n/2)}(a_{x,y}^j)^{2})^{\beta}$

3.4 OverlappingPooling

3.5 OverallArchitecture

4.1 DataAugmentation

4.2 Dropout

5. Detailsoflearning

6. Results

7. Discussion

评论(0
© 2014 mamicode.com 版权所有 京ICP备13008772号-2  联系我们:gaon5@hotmail.com
迷上了代码!