【深度学习】利用深度可分离卷积减小计算量及提升网络性能

这把我C 2021-05-06 12:40:04 5463

【深度学习】利用深度可分离卷积减小计算量及提升网络性能

文章目录
1 深度可分离卷积
2 一个深度可分离卷积层的代码示例(keras)
3 优势与创新
    3.1 Depthwise 过程
    3.2 Pointwise 过程
4 Mobilenet v1
5 Xception

1 深度可分离卷积

深度可分离卷积提出了一种新的思路:对于不同的输入channel采取不同的卷积核进行卷积,它将普通的卷积操作分解为两个过程。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

深度可分离卷积层对每个channel分别执行卷积,然后通过逐点卷积将这些输出混合。这相当于将空间特征和channel特征的学习分开。如果你的输入在空间位置高度相关,但不同的通道之间相对独立,那么这种做法可以减少参数数量,降低计算量。
因此,深度可分离卷积可以更加的轻量、速度更快,有时还能让任务的性能提升。

在这里插入图片描述

2 一个深度可分离卷积层的代码示例(keras)

from keras.models import Sequential,Model
from keras import layers

height = 64
width = 64
channels = 3
num_classes = 10

model = Sequential()
model.add(layers.SeparableConv2D(32,3,activation='relu',input_shape=(height,width,channels,)))
model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.MaxPooling2D(2))

model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.SeparableConv2D(128,3,activation='relu'))
model.add(layers.MaxPooling2D(2))

model.add(layers.SeparableConv2D(64,3,activation='relu'))
model.add(layers.SeparableConv2D(128,3,activation='relu'))
model.add(layers.GlobalAveragePooling2D())

model.add(layers.Dense(32,activation='relu'))
model.add(layers.Dense(num_classes,activation='softmax'))

model.compile(optimizer='rmsprop',loss='categorical_crossentropy')

3 优势与创新

Depthwise+Pointwise可以近似看作一个卷积层:

普通卷积:3x3 Conv+BN+ReLU
Mobilenet卷积:3x3 Depthwise Conv+BN+ReLU 和 1x1 Pointwise Conv+BN+ReLU

3. 1 Depthwise 过程

在这里插入图片描述

3. 2 Pointwise 过程

在这里插入图片描述

4 Mobilenet v1

Mobilenet v1利用深度可分离卷积进行加速,MobileNets结构建立在深度可分解卷积中(只有第一层是标准卷积)。该网络允许算法探索网络拓扑,找到一个适合的良好网络。其具体架构在表1说明。除了最后的全连接层,所有层后面跟了batchnorm和ReLU,最终输入到softmax进行分类。图3对比了标准卷积和分解卷积的结构,二者都附带了BN和ReLU层。按照原文的计算方法,MobileNets总共28层(1 + 2 × 13 + 1 = 28),
在这里插入图片描述
MobileNet将95%的计算时间用于有75%的参数的1×1卷积,其他额外的参数几乎都集中于全连接层,在论文中,采用tensorflow框架进行训练。
在这里插入图片描述
目标检测结果在这里插入图片描述

5 Xception

 网络的整个流程如下图所示,Xception架构有36个卷积层作为网络特征提取的基础,这36个卷积层被分为14个模块,除了第一个和最后一个,其他每一个模块都使用了残差连接。
在这里插入图片描述

简而言之,Xception架构是一个深度可分离卷积层的线性叠加,这个架构易于修改,仅使用30-40行代码就可以完成。
细节:

验证
  实验在两个大型的图片分类数据集上进行,将Xception和Inception V3进行比较(二者拥有几乎相同的参数数量)。

JFT dataset
  JFT是一个大规模图片分类数据集,包括3.5亿张高清图像,和17000个类别。实验使用FastEval14k这个数据集即从中选取包含6000个类别的14000张图像 。
优化参数设置
  在ImageNet上:

优化器:SGD
动量:0.9
初始学习率:0.045
学习率衰减:每个epoch衰减率0.94
  在JFT上:
Optimizer:RMSprop
动量:0.9
初始学习率:0.001
学习率衰减:每3000000个样例后衰减率0.9
正规化设置
权重衰减:Inception V3权重衰减率4e-5,xception为1e-5
Dropout:dropout rate=0.5;JFT因为数据集够大,过拟合发生的可能性较低
辅助损失函数:实验中不适用Inception V3架构中包含的辅助损失分路

残差连接的影响
在这里插入图片描述
点卷积后跟激活函数的影响
在这里插入图片描述

声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
红包 94 5 评论 打赏
评论
0个
内容存在敏感词
手气红包
    易百纳技术社区暂无数据
相关专栏
置顶时间设置
结束时间
删除原因
  • 广告/SPAM
  • 恶意灌水
  • 违规内容
  • 文不对题
  • 重复发帖
打赏作者
易百纳技术社区
这把我C
您的支持将鼓励我继续创作!
打赏金额:
¥1易百纳技术社区
¥5易百纳技术社区
¥10易百纳技术社区
¥50易百纳技术社区
¥100易百纳技术社区
支付方式:
微信支付
支付宝支付
易百纳技术社区微信支付
易百纳技术社区
打赏成功!

感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~

举报反馈

举报类型

  • 内容涉黄/赌/毒
  • 内容侵权/抄袭
  • 政治相关
  • 涉嫌广告
  • 侮辱谩骂
  • 其他

详细说明

审核成功

发布时间设置
发布时间:
是否关联周任务-专栏模块

审核失败

失败原因
备注
拼手气红包 红包规则
祝福语
恭喜发财,大吉大利!
红包金额
红包最小金额不能低于5元
红包数量
红包数量范围10~50个
余额支付
当前余额:
可前往问答、专栏板块获取收益 去获取
取 消 确 定

小包子的红包

恭喜发财,大吉大利

已领取20/40,共1.6元 红包规则

    易百纳技术社区