
深度学习 19
ShuffeNet学习笔记
0x00 ShuffeNet V1
1. Channel Shuffle
对ResNeXt中的分组卷积进行改进:
如果GConv1分
...
MobileNet V3学习笔记
0x00 亮点
更新了Block——bneck使用NAS搜索参数(Neural Architecture Search)重新设计耗时层结构
0x0
...
MobileNet V2学习笔记
相比V1网络准确率更高、模型更小
0x00 亮点
Inverted Residual倒残差结构Linear Bottlenecks
0x01
...
MobileNet V1学习笔记
传统卷积神经网络内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行MobileNet相比VGG16准确率下降了0.9%,但模型参数只有它的1/32
...
ResNeXt学习笔记
0x00 亮点
更新了BlockGroup Convolution 组卷积
0x01 Group Convolution 组卷积
...
ResNet学习笔记
0x00 亮点
超深的网络结构(突破1000层)提出residual模块使用Batch Normalization加速训练(丢弃dropout)
...
GooLeNet学习笔记
0x00 亮点
引入Inception结构(融合不同尺度的特征信息)使用1×1的卷积核进行降维以及映射处理添加两个辅助分类器帮助训练丢弃全连接
...
VGG学习笔记
0x00 亮点
通过堆叠多个3×3的卷积核来替代大尺度卷积核(目的:减少所需参数)论文中提到,可以通过堆叠两个3×3的卷积核替代5&
...
ResNet网络学习笔记
0x00 Abstract
我们提出了一种残差学习框架来解决非常深的神经网络的训练问题明确地重构了学习框架,让网络可以直接学习输入信息与输出信息的差异(
...