2022年10月28日:Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs

  • 主页 /
  • 通知公告 /
  • 通知公告

2022年10月28日:Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs

【报告内容】

2022.10.28讨论课,时间:19:30,腾讯会议:37138686615

汇报人:韩贤

单位:河海大学

主题《Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs》

1、Introduction

2、Related Work

3、Guidelines of Applying Large Convolutions

4、RepLKNet: a Large-Kernel Architecture

5、Discussions

6、Conclusion

【报告总结】

1、:作者在讲述imageNet这个部分时,有没有使用它的model通过imageNet中不同shape的任务来验证结果?

:作者没有做这样的实验,这里主要论述的是为什么他的model在imageNet上的提升不明显的原因。

2、:文中感受野的大小主要在定义什么?

:通过计算输入图像对最后输出的特征图中心像素点的贡献度,来进行有效感受野可视化。

3、:作者有没有开源代码?

:在github上已进行开源,地址https://github.com/megvii-research/RepLKNet.

4、:作者的重参数化主要在做什么?

: 首先构造一系列结构(一般用于训练),并将其参数等价转换为另一组参数(一般用于推理),从而将这一系列结构等价转换为另一系列结构

5、:作者的model提升了kernels的大小,有没有减低模型的深度?

:作者没有降低模型的深度,与swin的深度保持一致,降低深度会降低imageNet分类的效果。

报告时间:2022年102819:30

腾讯会议ID:371 3868 6615

点我下载本讨论课相关文献或PPT吧~(提取码:iipr)