【超分辨率】Enhanced Deep Residual Networks for Single Image Super-Resolution

来源:互联网 发布:linux如何配置时钟同步 编辑:程序博客网 时间:2024/05/16 02:01

这篇文章是NTIRE2017 Super-Resolution Challenge 夺冠文章。

机器之心对此进行了简单的翻译,还是比较详细的:
https://mp.weixin.qq.com/s/xpvGz1HVo9eLNDMv9v7vqg

这篇博客主要记录我对这篇文章的理解:

一、本文主要内容:

该文章提出了两种模型EDSR(单一尺度网络) 和 MDSR(多尺度超分辨率架构)。

目前一个DL网络往往对应着一个超分尺度upscaling factor

most existing SR algorithms treat superresolution of different scale factors as independent problems without considering and utilizing mutual relationships among different scales in SR. As such, those algorithms require many scale-specific networks that need to to be trained independently to deal with various scales.

文章在单一尺度网络EDSR的基础上同时也提出了MDSR(多尺度超分辨率架构)

二、文章模型:

该论文模型主要来自何凯明的ResNet,不过在Residual block上有着细微的差距:
这里写图片描述

可以看到模型的residual block在SRResNet的基础上去掉了BN
原文解释是:

Since batch normalization layers normalize the features, they get rid of range flexibility from networks by normalizing the features, it
is better to remove them.

去掉BN带来的好处是1)训练速度加快,2)使用显存减少
(因为BN层会消耗与之前卷积层等量的内存)

1) EDSR:
这里写图片描述

1) MDSR:
这里写图片描述

可以从图上看出,很多参数在MDSR之间是可以被共享的,因此MDSR比多个独立尺度的网络具有更少的参数,更快的收敛性。

most of the parameters are shared across different scales

这里写图片描述

From the observation in Fig. 4, we conclude that superresolution at multiple scales is inter-related tasks.

对图4的描述:当在升采样因子(upsampling factor)为 ×3 和 ×4 的时候,我们用预训练的 ×2 网络初始化了模型参数。这一预训练方法加速了训练进程,也提升了最终的性能表现,详见图 4 。对于升采样 ×4 的情况,如果我们使用了一个预训练的 scale×2 模型(蓝线),训练就会比随机初始化的训练(绿线)收敛的更快。

阅读全文
1 0
原创粉丝点击