深度学习入门(二十五)卷积神经网络——多输入多输出通道

前言卷积神经网络——填充和步幅课件多个输入通道多个输出通道多个输入和输出通道1×1卷积层二维卷积层总结

教材1 多输入通道2 多输出通道3 1×1卷积层4 小结

前言

核心内容来自博客链接1博客连接2希望大家多多支持作者 本文记录用,防止遗忘

卷积神经网络——填充和步幅

课件

多个输入通道

1、彩色图像可能有RGB三个通道 2、转换为灰度会丢失信息

每个通道都有一个卷积核,结果是所有通道卷积结果的和

输入

X

:

c

i

×

n

h

×

n

w

\mathbf{X}:c_i \times n_h \times n_w

X:ci​×nh​×nw​ 核

W

:

c

i

×

k

h

×

k

w

\mathbf{W}:c_i \times k_h \times k_w

W:ci​×kh​×kw​ 输出

Y

:

m

h

×

m

w

\mathbf{Y}:m_h \times m_w

Y:mh​×mw​

Y

=

i

=

0

c

i

X

i

,

:

,

:

W

i

,

:

,

:

\mathbf{Y=\sum_{i=0}^{c_i}X_{i,:,:}\star W_{i,:,:}}

Y=i=0∑ci​​Xi,:,:​⋆Wi,:,:​

多个输出通道

无论有多少输入通道,到目前为止我们只用到单输出通道 我们可以有多个三维卷积核,每个核生成一个输出通道

输入

X

:

c

i

×

n

h

×

n

w

\mathbf{X}:c_i \times n_h \times n_w

X:ci​×nh​×nw​ 核

W

:

c

o

×

c

i

×

k

h

×

k

w

\mathbf{W}:c_o \times c_i \times k_h \times k_w

W:co​×ci​×kh​×kw​ 输出

Y

:

c

o

×

m

h

×

m

w

\mathbf{Y}:c_o \times m_h \times m_w

Y:co​×mh​×mw​

Y

i

,

:

,

:

=

i

=

0

c

i

X

i

,

:

,

:

W

i

,

:

,

:

f

o

r

i

=

1

,

.

.

.

,

c

o

\mathbf{Y_{i,:,:}=\sum_{i=0}^{c_i}X_{i,:,:}\star W_{i,:,:}} \qquad for\quad i=1,...,c_o

Yi,:,:​=i=0∑ci​​Xi,:,:​⋆Wi,:,:​fori=1,...,co​

多个输入和输出通道

每个输出通道可以识别特定模式。 输入通道核识别并组合输入中的模式

1×1卷积层

k

h

=

k

w

=

1

k_h=k_w=1

kh​=kw​=1是一个受欢迎的选择。它不识别空间模式,只是融合通道。 相当于输入形状为

n

h

n

w

×

c

i

n_hn_w\times c_i

nh​nw​×ci​,权重为

c

o

×

c

i

c_o\times c_i

co​×ci​的全连接层

二维卷积层

总结

1、输出通道数是卷积层的超参数 2、每个输入通道有独立的二维卷积核,所有通道结果相加得到一个输出通道结果 3、每个输出通道有独立的三维卷积核

教材

虽然我们描述了构成每个图像的多个通道和多层卷积层。例如彩色图像具有标准的RGB通道来代表红、绿和蓝。 但是到目前为止,我们仅展示了单个输入和单个输出通道的简化例子。 这使得我们可以将输入、卷积核和输出看作二维张量。

当我们添加通道时,我们的输入和隐藏的表示都变成了三维张量。例如,每个RGB输入图像具有的形状。我们将这个大小为的轴称为通道(channel)维度。在本节中,我们将更深入地研究具有多输入和多输出通道的卷积核。

1 多输入通道

当输入包含多个通道时,需要构造一个与输入数据具有相同输入通道数的卷积核,以便与输入数据进行互相关运算。假设输入的通道数为

c

i

c_i

ci​,那么卷积核的输入通道数也需要为

c

i

c_i

ci​。如果卷积核的窗口形状是

k

h

×

k

w

k_h\times k_w

kh​×kw​,那么当

c

i

=

1

c_i=1

ci​=1时,我们可以把卷积核看作形状为

k

h

×

k

w

k_h\times k_w

kh​×kw​的二维张量。

然而,当时,我们卷积核的每个输入通道将包含形状为的张量。将这些张量连结在一起可以得到形状为的卷积核。由于输入和卷积核都有个通道,我们可以对每个通道输入的二维张量和卷积核的二维张量进行互相关运算,再对通道求和(将的结果相加)得到二维张量。这是多通道输入和多输入通道卷积核之间进行二维互相关运算的结果。

下图中,我们演示了一个具有两个输入通道的二维互相关运算的示例。阴影部分是第一个输出元素以及用于计算这个输出的输入和核张量元素:

(

1

×

1

+

2

×

2

+

4

×

3

+

5

×

4

)

+

(

0

×

0

+

1

×

1

+

3

×

2

+

4

×

3

)

=

56

(1\times1+2\times2+4\times3+5\times4)+(0\times0+1\times1+3\times2+4\times3)=56

(1×1+2×2+4×3+5×4)+(0×0+1×1+3×2+4×3)=56。 为了加深理解,我们实现一下多输入通道互相关运算。 简而言之,我们所做的就是对每个通道执行互相关操作,然后将结果相加。

import torch

from d2l import torch as d2l

def corr2d_multi_in(X, K):

# 先遍历“X”和“K”的第0个维度(通道维度),再把它们加在一起

return sum(d2l.corr2d(x, k) for x, k in zip(X, K))

我们可以构造与上图中的值相对应的输入张量X和核张量K,以验证互相关运算的输出。

X = torch.tensor([[[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]],

[[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]])

K = torch.tensor([[[0.0, 1.0], [2.0, 3.0]], [[1.0, 2.0], [3.0, 4.0]]])

corr2d_multi_in(X, K)

输出:

tensor([[ 56., 72.],

[104., 120.]])

2 多输出通道

到目前为止,不论有多少输入通道,我们还只有一个输出通道。然而,正如我们之前所讨论的,每一层有多个输出通道是至关重要的。在最流行的神经网络架构中,随着神经网络层数的加深,我们常会增加输出通道的维数,通过减少空间分辨率以获得更大的通道深度。直观地说,我们可以将每个通道看作是对不同特征的响应。而现实可能更为复杂一些,因为每个通道不是独立学习的,而是为了共同使用而优化的。因此,多输出通道并不仅是学习多个单通道的检测器。

c

i

c_i

ci​和

c

o

c_o

co​分别表示输入和输出通道的数目,并让

k

h

k_h

kh​和

k

w

k_w

kw​为卷积核的高度和宽度。为了获得多个通道的输出,我们可以为每个输出通道创建一个形状为

c

i

×

k

h

×

k

w

c_i\times k_h\times k_w

ci​×kh​×kw​的卷积核张量,这样卷积核的形状是

c

o

×

c

i

×

k

h

×

k

w

c_o\times c_i\times k_h\times k_w

co​×ci​×kh​×kw​。在互相关运算中,每个输出通道先获取所有输入通道,再以对应该输出通道的卷积核计算出结果。

如下所示,我们实现一个计算多个通道的输出的互相关函数。

def corr2d_multi_in_out(X, K):

# 迭代“K”的第0个维度,每次都对输入“X”执行互相关运算。

# 最后将所有结果都叠加在一起

return torch.stack([corr2d_multi_in(X, k) for k in K], 0)

通过将核张量K与K+1(K中每个元素加1)和K+2连接起来,构造了一个具有3个输出通道的卷积核。

K = torch.stack((K, K + 1, K + 2), 0)

K.shape

输出:

torch.Size([3, 2, 2, 2])

下面,我们对输入张量X与卷积核张量K执行互相关运算。现在的输出包含3个通道,第一个通道的结果与先前输入张量X和多输入单输出通道的结果一致。

corr2d_multi_in_out(X, K)

输出:

tensor([[[ 56., 72.],

[104., 120.]],

[[ 76., 100.],

[148., 172.]],

[[ 96., 128.],

[192., 224.]]])

3 1×1卷积层

1

×

1

1 \times 1

1×1卷积,即

k

h

=

k

w

=

1

k_h = k_w = 1

kh​=kw​=1,看起来似乎没有多大意义。 毕竟,卷积的本质是有效提取相邻像素间的相关特征,而

1

×

1

1 \times 1

1×1卷积显然没有此作用。 尽管如此,

1

×

1

1 \times 1

1×1仍然十分流行,经常包含在复杂深层网络的设计中。下面,让我们详细地解读一下它的实际作用。

因为使用了最小窗口,

1

×

1

1 \times 1

1×1卷积失去了卷积层的特有能力——在高度和宽度维度上,识别相邻元素间相互作用的能力。 其实

1

×

1

1 \times 1

1×1卷积的唯一计算发生在通道上。

下图展示了使用

1

×

1

1\times 1

1×1卷积核与3个输入通道和2个输出通道的互相关计算。 这里输入和输出具有相同的高度和宽度,输出中的每个元素都是从输入图像中同一位置的元素的线性组合。 我们可以将

1

×

1

1\times 1

1×1卷积层看作是在每个像素位置应用的全连接层,以

c

i

c_i

ci​个输入值转换为

c

o

c_o

co​个输出值。 因为这仍然是一个卷积层,所以跨像素的权重是一致的。 同时,

1

×

1

1\times 1

1×1卷积层需要的权重维度为

c

o

×

c

i

c_o\times c_i

co​×ci​,再额外加上一个偏置。 下面,我们使用全连接层实现

1

×

1

1\times 1

1×1卷积。 请注意,我们需要对输入和输出的数据形状进行调整。

def corr2d_multi_in_out_1x1(X, K):

c_i, h, w = X.shape

c_o = K.shape[0]

X = X.reshape((c_i, h * w))

K = K.reshape((c_o, c_i))

# 全连接层中的矩阵乘法

Y = torch.matmul(K, X)

return Y.reshape((c_o, h, w))

当执行

1

×

1

1\times 1

1×1卷积运算时,上述函数相当于先前实现的互相关函数corr2d_multi_in_out。让我们用一些样本数据来验证这一点。

X = torch.normal(0, 1, (3, 3, 3))

K = torch.normal(0, 1, (2, 3, 1, 1))

Y1 = corr2d_multi_in_out_1x1(X, K)

Y2 = corr2d_multi_in_out(X, K)

assert float(torch.abs(Y1 - Y2).sum()) < 1e-6

4 小结

1、多输入多输出通道可以用来扩展卷积层的模型。 2、当以每像素为基础应用时,

1

×

1

1\times 1

1×1卷积层相当于全连接层。 3、

1

×

1

1\times 1

1×1卷积层通常用于调整网络层的通道数量和控制模型复杂性

推荐链接

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: