2022年12月02日:Learning and Sharing: A Multitask Genetic Programming Approach to Image Feature Learning
- 主页 /
- 通知公告 /
- 通知公告
2022年12月02日:Learning and Sharing: A Multitask Genetic Programming Approach to Image Feature Learning
【报告内容】
2022.12.2讨论课,时间:19:30,腾讯会议:37138686615
汇报人:戴可涛
汇报单位:太原理工大学
主题:《Learning and Sharing: A Multitask Genetic Programming Approach to Image Feature Learning 》
1、Introduction
2、Background And Related Work
3、Proposed Approach
4、Experiments
5、Conclusion
【报告总结】
1.在树的结构上,必有池化层的那一个分支必须要在树的左边吗?
答:不是的,可以在树的任何一个分支,树的分支也不一定只有两个,都是由算法随机产生的,只要保证一个分支上有输入层和池化层或者由输入层和特征提取层就可以。
2.对于这篇文章中的多任务优化问题,如果两个任务相互矛盾的话,那这个公共树还怎么起到作用?
答:在本文中,由于两个任务本身就是高度相关的,所以不会出现矛盾的现象,并且公共树的适应度函数就是由任务1和任务2共同作用的,所以可以看做是知识迁移的过程。
3.树的结构示例中,在池化层旁边还有两个数字,这是代表什么意思?
答:这两个数字表示的是输入的参数,是池化层中的方法所需要的参数。
4.在树的结构中,如果直接由过滤层到特征提取层,这样子是可行的吗,参数保持是一致的吗?
答:对于本文的方法,特征提取层的输入可以是特征,也可以是图像,所以可以接受直接由过滤层出来的图像信息,也可以接受由池化层输出的特征信息。
5. 树的结构和卷积神经网络有什么联系?
答:本文提出的方法是因为卷积神经网络在进行图像分类时,需要大量的训练集数据,当训练集数据较少时,容易出现过度拟合,故提出了这样一种算法,树的结构方面和卷积神经网络并不一致。
报告时间:2022年12月02日19:30
腾讯会议ID:371 3868 6615
点我下载本讨论课相关文献或PPT吧~(提取码:iipr)