请选择 进入手机版 | 继续访问电脑版

语义分割

[复制链接]
小小海 发表于 2021-1-2 19:01:50 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
FCN

FCN的输出是粗糙的,不平滑的。其原因是由于使用卷积层向下采样32次,导致最终特征层的信息丢失,为了办理这个问题,本文还提出了别的两种架构FCN-16、FCN-8。在FCN-16中,来自前一个池化层的信息与最终的feature map一起使用,因此现在网络的任务是学习16x向上的采样,这比FCN-32更好。FCN-8试图通过包罗来自前一个池层的信息来使它更好

 

U-Net

使用反卷积举行上采样,使用跳连增补信息丢失
 
DeepLab

1.空洞卷积
2.ASPP
3.RCF
spp用于办理图像拉伸大概裁剪去统一图片的尺寸,但是会造成信息丢失,失真等问题,spp通过差别的池化范围扩大感受野,aspp通过差别的膨胀率扩大感受野
池化是一种有助于淘汰神经网络参数数量的利用,但它也带来了稳定性。稳定性是指神经网络不受输入中轻微平动的影响。由于pooling得到的这一特性,神经网络得到的分割输出是粗糙的,界限没有详细界说。
作者发起通过使用大型内核作为网络的一部门来实现这一点,从而实现麋集的毗连,从而得到更多的信息,为了淘汰参数的数量,一个kx k滤波器进一步分裂成1xk和kx1
Boundary Refinement block 
雷同于Resnet中的剩余块,由一个快捷毗连和一个剩余毗连组成,将其相加得到效果
 
 
Global Convolution Network

创建的分类网络具有平移和旋转的稳定性,因此不重视位置信息,而定位涉及到从位置得到准确的细节。因此,这两项任务在本质上是抵牾的。大多数分割算法更重视定位,如上图中的第二个,因此忽略了全局上下文

See More Than Once – KSAC for Semantic Segmentation

在ASPP中,差别的并行层之间没有信息共享,从而影响了每一层内核的泛化本领。别的,由于每一层都迎合差别的训练样本集(小对象对小氮率,大对象对大氮率),因此每一平行层的数据量较少,从而影响整体的通用性。网络中的参数数量也会随着参数数量的增加而线性增加,从而导致过拟合。
为了办理这些问题,作者提出了一种新的网络布局,称为核共享Atrous卷积(KSAC)。从上图中可以看出,不是每个并行层都有一个差别的核,而是在每个并行层共享一个核,从而提高了网络的泛化本领

Learning Dy namic Routing for Semantic Segmentation

  1.比年来,Neural Architecture Search (NAS)被广泛用于自动网络架构设计,使用NAS取代ASPP;Auto-DeepLab 使用启发式搜索或强化学习等方法构建网络。  2.动态网络是比年来盘算机视觉范畴的研究热点,传统的方法主要是通过删除块或裁剪通道来举行图像分类,本文提出了一种基于门控构建网络,以缓解输入之间的尺度差异。     
      
来源:https://blog.csdn.net/T5A_318/article/details/110821436
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则


专注素材教程免费分享
全国免费热线电话

18768367769

周一至周日9:00-23:00

反馈建议

27428564@qq.com 在线QQ咨询

扫描二维码关注我们

Powered by Discuz! X3.4© 2001-2013 Comsenz Inc.( 蜀ICP备2021001884号-1 )