PVANET 网络

来源:互联网 发布:一年的java工作经验 编辑:程序博客网 时间:2024/06/03 16:23

旨在降低计算量,重新设计了特征提取部分,设计原则是“通道少层数多”,网络比较深但是比较瘦,使用了batch norm,residual 连接,学习率更新策略等技术。在VOC2012上 rank-2,运行时间在i7-6700K CPU上750ms/帧,在Titan X GPU上运行时间45ms/帧。

其他增强性能方法:

  1. 在CNN的前几层使用C.ReLU,降低一半计算量 
    CNN前几层,输出节点激活一般有符号相反的对应节点,通过该观察,将输出节点数降低一半,在输出时double并取反,提两倍速。 
    这里写图片描述 
    在初始C.ReLU增加了缩放及平移,使得成对的通道斜率和激活阈值不同?
  2. 在特征生成子网络的余下的几层使用Inception,Inception模块生成感受野不同尺寸的激活输出,提高了感受野尺寸的多样性 
    Inception尚未在检测任务中广泛应用,作者认为Inception是计算量较小的模块,用于检测较大或较小的目标。对较大目标,对应大感受野,可以通过堆栈3*3卷积实现。对较小物体,对应小感受野,1*1的卷积保持了上一层感受野的大小,精确检测小物体。 
    Inception操作如下图所示: 
    这里写图片描述
  3. 使用了Hypernet中多尺度表示思想 
    综合精细信息及高度抽象信息有益于检测不同尺度的物体,但抽象层的数目和编号需要精心设计。与ION和HyperNet中思想类似,综合了最后一层和两个中间层(分别是最后一层尺度的2倍和4倍),并将2倍层作为参考标准层。
  4. 训练的tricks 
    在Incption中增加残差结构,在所有的ReLU激活前增加BN,使用plateu检测更新学习率。

网络的结构如下图所示: 
这里写图片描述

K*K的卷积层之前和之后都有1*1的卷积,先降低输出尺寸大小,后提高表示能力。

实验结果: 
这里写图片描述

文中有一句,在mAP超过80%的方法中,PVANET运行时间在50ms以内,但没有和YOLOv2比较

原创粉丝点击