目录
Q&A
Q1:为什么 CNN 中卷积核的大小一般为奇数?
卷积核大小一般是奇数,原因是:
容易找到卷积锚点(主要):
使用奇数尺寸的滤波器可简化索引,并更为直观,因为滤波器的中心落在整数值上。奇数相对于偶数,有中心点,对边沿、对线条更加敏感,可以更有效的提取边沿信息。因此,奇数大小的卷积核效率更高。
便于进行 padding (次要):
padding 的做法是双边填充,这就导致不管我们怎么填充最终图像增长的长度是偶数。然而我们知道在卷积时如果最后的剩余部分比卷积核小,那么就会损失部分边缘信息,这是我们不希望看到的。我们假设卷积大小 $(k \times k)$ ,令 $\text{stride}=1$ , $\text{dilation}=1$ ,则 $\text{padding} = \frac{\text{kernel_size}-1}{2}$ 。
如果觉得本教程不错或对您有用,请前往项目地址 https://github.com/Harry-hhj/Harry-hhj.github.io 点击 Star :) ,这将是对我的肯定和鼓励,谢谢!
参考文献
- deeplearning.ai 《卷积神经网络》
作者:Harry-hhj,github主页:传送门