专题栏目

深度学习19

深度学习ShuffeNet学习笔记

0x00 ShuffeNet V1 1. Channel Shuffle 对ResNeXt中的分组卷积进行改进: 如果GConv1分为了3个组,那么每个组生成的featur ...

深度学习MobileNet V3学习笔记

0x00 亮点 更新了Block——bneck使用NAS搜索参数(Neural Architecture Search)重新设计耗时层结构 0x01 更新Block 在V2的倒残差 ...

深度学习MobileNet V2学习笔记

相比V1网络准确率更高、模型更小 0x00 亮点 Inverted Residual倒残差结构Linear Bottlenecks 0x01 Inverted Residual倒残 ...

深度学习MobileNet V1学习笔记

传统卷积神经网络内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行MobileNet相比VGG16准确率下降了0.9%,但模型参数只有它的1/32 0x00 亮点 Depthw ...

深度学习ResNeXt学习笔记

0x00 亮点 更新了BlockGroup Convolution 组卷积 0x01 Group Convolution 组卷积 ...

深度学习ResNet学习笔记

0x00 亮点 超深的网络结构(突破1000层)提出residual模块使用Batch Normalization加速训练(丢弃dropout) 0x01 Residual结构 ...

深度学习GooLeNet学习笔记

0x00 亮点 引入Inception结构(融合不同尺度的特征信息)使用1×1的卷积核进行降维以及映射处理添加两个辅助分类器帮助训练丢弃全连接层,使用平均池化层(大大减少模型参数。注 ...

深度学习VGG学习笔记

0x00 亮点 通过堆叠多个3×3的卷积核来替代大尺度卷积核(目的:减少所需参数)论文中提到,可以通过堆叠两个3×3的卷积核替代5×5的卷积核,堆叠三个3&#21 ...

深度学习ResNet网络学习笔记

0x00 Abstract 我们提出了一种残差学习框架来解决非常深的神经网络的训练问题明确地重构了学习框架,让网络可以直接学习输入信息与输出信息的差异(即残差),而不必学习一些无关的信息这种残 ...