神经网络通常包含下采样和上采样操作,并最终通过**全连接层(Fully Connected, FC)**输出结果。
全连接层的作用是将高维特征映射到低维空间,实现信息的压缩和融合。
在含有全连接层的网络中,高维特征图需要被展平成一维向量作为全连接层的输入。
而全连接层的权重矩阵由输入向量长度和输出维度决定
- 输入向量的长度(卷积层输出即网络的输入,由特征图尺寸和通道数等决定)。
- FC层输出维度(比如分类类别数,同一任务中固定不变)。
由于全连接层的每个神经元都与前一层的所有神经元相连,为确保FC层权重矩阵的维度一致,输入向量的尺寸必须固定。如果输入尺寸变化,展平后的特征向量长度也会变化,导致FC层权重矩阵无法匹配。
因此,使用全连接层时,输入图像的尺寸通常是固定的。
相比之下,不含全连接层的网络(如全卷积网络 FCN)对输入尺寸没有严格限制,因为卷积和池化操作具有空间尺寸的可变性,即它们不依赖于固定输入大小。这类网络可以接受任意尺寸的输入,并使用**全局平均池化(GAP)**或直接通过卷积输出结果,避免了全连接层带来的尺寸限制。