ResNet

ResNet是2015年ImageNet比赛的冠军,将识别错误率降低到了3.6%,这个结果甚至超出了正常人眼识别的精度。

通过前面几个经典模型学习,我们可以发现随着深度学习的不断发展,模型的层数越来越多,网络结构也越来越复杂。那么是否加深网络结构,就一定会得到更好的效果呢?从理论上来说,假设新增加的层都是恒等映射,只要原有的层学出跟原模型一样的参数,那么深模型结构就能达到原模型结构的效果。换句话说,原模型的解只是新模型的解的子空间,在新模型解的空间里应该能找到比原模型解对应的子空间更好的结果。但是实践表明,增加网络的层数之后,训练误差往往不降反升。

Kaiming He等人提出了残差网络ResNet来解决上述问题,其基本思想如 图6所示。

  • 图6(a):表示增加网络的时候,将x映射成 ResNet - 图1 输出。
  • 图6(b):对图6(a)作了改进,输出 ResNet - 图2 。这时不是直接学习输出特征y的表示,而是学习 ResNet - 图3
    • 如果想学习出原模型的表示,只需将F(x)的参数全部设置为0,则 ResNet - 图4 是恒等映射。
    • ResNet - 图5 也叫做残差项,如果 ResNet - 图6 的映射接近恒等映射,图6(b)中通过学习残差项也比图6(a)学习完整映射形式更加容易。

ResNet - 图7

图6:残差块设计思想

图6(b)的结构是残差网络的基础,这种结构也叫做残差块(residual block)。输入x通过跨层连接,能更快的向前传播数据,或者向后传播梯度。残差块的具体设计方案如 7 所示,这种设计方案也成称作瓶颈结构(BottleNeck)。

ResNet - 图8

图7:残差块结构示意图

下图表示出了ResNet-50的结构,一共包含49层卷积和1层全连接,所以被称为ResNet-50。

ResNet - 图9

图8:ResNet-50模型网络结构示意图

ResNet-50的具体实现如下代码所示:

  1. # -*- coding:utf-8 -*-
  2. # ResNet模型代码
  3. import numpy as np
  4. import paddle
  5. import paddle.fluid as fluid
  6. from paddle.fluid.layer_helper import LayerHelper
  7. from paddle.fluid.dygraph.nn import Conv2D, Pool2D, BatchNorm, Linear
  8. from paddle.fluid.dygraph.base import to_variable
  9. # ResNet中使用了BatchNorm层,在卷积层的后面加上BatchNorm以提升数值稳定性
  10. # 定义卷积批归一化块
  11. class ConvBNLayer(fluid.dygraph.Layer):
  12. def __init__(self,
  13. num_channels,
  14. num_filters,
  15. filter_size,
  16. stride=1,
  17. groups=1,
  18. act=None):
  19. """
  20. name_scope, 模块的名字
  21. num_channels, 卷积层的输入通道数
  22. num_filters, 卷积层的输出通道数
  23. stride, 卷积层的步幅
  24. groups, 分组卷积的组数,默认groups=1不使用分组卷积
  25. act, 激活函数类型,默认act=None不使用激活函数
  26. """
  27. super(ConvBNLayer, self).__init__()
  28. # 创建卷积层
  29. self._conv = Conv2D(
  30. num_channels=num_channels,
  31. num_filters=num_filters,
  32. filter_size=filter_size,
  33. stride=stride,
  34. padding=(filter_size - 1) // 2,
  35. groups=groups,
  36. act=None,
  37. bias_attr=False)
  38. # 创建BatchNorm层
  39. self._batch_norm = BatchNorm(num_filters, act=act)
  40. def forward(self, inputs):
  41. y = self._conv(inputs)
  42. y = self._batch_norm(y)
  43. return y
  44. # 定义残差块
  45. # 每个残差块会对输入图片做三次卷积,然后跟输入图片进行短接
  46. # 如果残差块中第三次卷积输出特征图的形状与输入不一致,则对输入图片做1x1卷积,将其输出形状调整成一致
  47. class BottleneckBlock(fluid.dygraph.Layer):
  48. def __init__(self,
  49. name_scope,
  50. num_channels,
  51. num_filters,
  52. stride,
  53. shortcut=True):
  54. super(BottleneckBlock, self).__init__(name_scope)
  55. # 创建第一个卷积层 1x1
  56. self.conv0 = ConvBNLayer(
  57. num_channels=num_channels,
  58. num_filters=num_filters,
  59. filter_size=1,
  60. act='relu')
  61. # 创建第二个卷积层 3x3
  62. self.conv1 = ConvBNLayer(
  63. num_channels=num_filters,
  64. num_filters=num_filters,
  65. filter_size=3,
  66. stride=stride,
  67. act='relu')
  68. # 创建第三个卷积 1x1,但输出通道数乘以4
  69. self.conv2 = ConvBNLayer(
  70. num_channels=num_filters,
  71. num_filters=num_filters * 4,
  72. filter_size=1,
  73. act=None)
  74. # 如果conv2的输出跟此残差块的输入数据形状一致,则shortcut=True
  75. # 否则shortcut = False,添加1个1x1的卷积作用在输入数据上,使其形状变成跟conv2一致
  76. if not shortcut:
  77. self.short = ConvBNLayer(
  78. num_channels=num_channels,
  79. num_filters=num_filters * 4,
  80. filter_size=1,
  81. stride=stride)
  82. self.shortcut = shortcut
  83. self._num_channels_out = num_filters * 4
  84. def forward(self, inputs):
  85. y = self.conv0(inputs)
  86. conv1 = self.conv1(y)
  87. conv2 = self.conv2(conv1)
  88. # 如果shortcut=True,直接将inputs跟conv2的输出相加
  89. # 否则需要对inputs进行一次卷积,将形状调整成跟conv2输出一致
  90. if self.shortcut:
  91. short = inputs
  92. else:
  93. short = self.short(inputs)
  94. y = fluid.layers.elementwise_add(x=short, y=conv2)
  95. layer_helper = LayerHelper(self.full_name(), act='relu')
  96. return layer_helper.append_activation(y)
  97. # 定义ResNet模型
  98. class ResNet(fluid.dygraph.Layer):
  99. def __init__(self, name_scope, layers=50, class_dim=1):
  100. """
  101. name_scope,模块名称
  102. layers, 网络层数,可以是50, 101或者152
  103. class_dim,分类标签的类别数
  104. """
  105. super(ResNet, self).__init__(name_scope)
  106. self.layers = layers
  107. supported_layers = [50, 101, 152]
  108. assert layers in supported_layers, \
  109. "supported layers are {} but input layer is {}".format(supported_layers, layers)
  110. if layers == 50:
  111. #ResNet50包含多个模块,其中第2到第5个模块分别包含3、4、6、3个残差块
  112. depth = [3, 4, 6, 3]
  113. elif layers == 101:
  114. #ResNet101包含多个模块,其中第2到第5个模块分别包含3、4、23、3个残差块
  115. depth = [3, 4, 23, 3]
  116. elif layers == 152:
  117. #ResNet50包含多个模块,其中第2到第5个模块分别包含3、8、36、3个残差块
  118. depth = [3, 8, 36, 3]
  119. # 残差块中使用到的卷积的输出通道数
  120. num_filters = [64, 128, 256, 512]
  121. # ResNet的第一个模块,包含1个7x7卷积,后面跟着1个最大池化层
  122. self.conv = ConvBNLayer(
  123. num_channels=3,
  124. num_filters=64,
  125. filter_size=7,
  126. stride=2,
  127. act='relu')
  128. self.pool2d_max = Pool2D(
  129. pool_size=3,
  130. pool_stride=2,
  131. pool_padding=1,
  132. pool_type='max')
  133. # ResNet的第二到第五个模块c2、c3、c4、c5
  134. self.bottleneck_block_list = []
  135. num_channels = 64
  136. for block in range(len(depth)):
  137. shortcut = False
  138. for i in range(depth[block]):
  139. bottleneck_block = self.add_sublayer(
  140. 'bb_%d_%d' % (block, i),
  141. BottleneckBlock(
  142. self.full_name(),
  143. num_channels=num_channels,
  144. num_filters=num_filters[block],
  145. stride=2 if i == 0 and block != 0 else 1, # c3、c4、c5将会在第一个残差块使用stride=2;其余所有残差块stride=1
  146. shortcut=shortcut))
  147. num_channels = bottleneck_block._num_channels_out
  148. self.bottleneck_block_list.append(bottleneck_block)
  149. shortcut = True
  150. # 在c5的输出特征图上使用全局池化
  151. self.pool2d_avg = Pool2D(pool_size=7, pool_type='avg', global_pooling=True)
  152. # stdv用来作为全连接层随机初始化参数的方差
  153. import math
  154. stdv = 1.0 / math.sqrt(2048 * 1.0)
  155. # 创建全连接层,输出大小为类别数目
  156. self.out = Linear(input_dim=2048, output_dim=class_dim,
  157. param_attr=fluid.param_attr.ParamAttr(
  158. initializer=fluid.initializer.Uniform(-stdv, stdv)))
  159. def forward(self, inputs):
  160. y = self.conv(inputs)
  161. y = self.pool2d_max(y)
  162. for bottleneck_block in self.bottleneck_block_list:
  163. y = bottleneck_block(y)
  164. y = self.pool2d_avg(y)
  165. y = fluid.layers.reshape(y, [y.shape[0], -1])
  166. y = self.out(y)
  167. return y
  1. with fluid.dygraph.guard():
  2. model = ResNet("ResNet")
  3. train(model)

通过运行结果可以发现,使用ResNet在眼疾筛查数据集iChallenge-PM上,loss能有效的下降,经过5个epoch的训练,在验证集上的准确率可以达到95%左右。