Muyun99's wiki Muyun99's wiki
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Muyun99

努力成为一个善良的人
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 代码实践-目标检测

  • 代码实践-图像分割

    • 基于深度学习的图像分割技术
    • 领域自适应
      • 如何计算一个模型的FPS,Params,GFLOPs
      • 常见数据集的相关知识
      • 如何加载数据集
      • 半监督与弱监督图像分割
      • PASCAL VOC 2012调色板 color map生成源代码分析
      • 语义分割数据集灰度分割图转彩色分割图代码
      • 复现PSA
      • 转换cityscapes 到对应的类别
      • 上采样函数
      • DeepLab系列代码
      • mIoU的计算
      • Multi-label 分类中如何计算 mAP
    • 代码实践-自监督学习

    • 竞赛笔记-视觉竞赛

    • 框架解析-mmlab系列

    • 讲座记录-有意思的文章集合

    • 体会感悟-产品沉思录观后有感

    • 体会感悟-摄影

    • 系列笔记-

    • 系列笔记-乐理和五线谱

    • 系列笔记-爬虫实践

    • 系列笔记-Django学习笔记

    • 系列笔记-Git 使用笔记

    • 系列笔记-网站搭建

    • 系列笔记-图卷积网络

    • 课程笔记-MIT-NULL

    • 系列笔记-OpenCV-Python

    • 系列笔记-使用 Beancount 记账

    • 系列笔记-Python设计模式

    • 系列笔记-MLOps

    • 系列笔记-Apollo自动驾驶

    • 系列笔记-PaddlePaddle

    • 系列笔记-视频操作

    • Vue+Django前后端分离开发

    • 深度学习及机器学习理论知识学习笔记

    • PyTorch Tricks

    • 学习笔记
    • 代码实践-图像分割
    Muyun99
    2021-04-14

    领域自适应

    # 1、什么是Domain Adaptation?

    Domain Adaptation 是源任务和目标任务一样,但是源域和目标域的数据分布不一样,并且源域有大量标记好的样本的迁移学习方法。这样就是如何把源域从大量的有标记样本中学习的知识迁移到目标域上解决相同的问题。

    领域自适应(Domain Adaptation)是迁移学习中的一种代表性方法,其定义为:源域(source domain)和目标域(target domain)共享相同的特征和类别,但是特征分布不同,如何利用信息丰富的源域样本来提升目标域模型的性能。源域表示与测试样本不同的领域,具有丰富的监督标注信息;目标域表示测试样本所在的领域,无标签或者只有少量标签。源域和目标域往往属于同一类任务,但是分布不同。

    # 2、Domain Adaptation 的发展现状

    # 2.1 Traditional DA(传统的非深度学习的DA)

    TCA将源域和目标域一起映射到一个高维的再生核希尔伯特空间。在此空间中最小化源和目标的数据距离,同时最大程度地保留它们各自的内部属性。GFK 将源域和目标域视作 Grassmann流形 中的两个点,希望找到合适的变换组成一条测地线的路径。

    # 2.2 Discrepancy-based DA(基于差异的)

    DDC 加入 MMD 距离来缩小源域和目标域的差异,有助于学习到对领域不敏感的特征表示。DAN加入多个适配层,并且用多核 MMD 替换单核 MMD,提升了域适应的性能。RTN 认为条件分布差异是由一个扰动函数,但是可以通过两层残差项(residual block)联系起来,利用Residual Function来区分source classifier和target classifier。JAN提出JMMD用于度量多个网络层的联合分布的差异。

    # 2.3 Adversarial-based DA(基于对抗的)

    RevGrad主要提出了利用一个domain classifier来增强网络迁移性的方法,基于对抗的方法来进行优化。iCAN 结合了collaborative learning 和 adversarial learning对lower blocks 和 higher blocks 分别制定了学习目标。MADA为了避免使用单个判别器时,不同种类的样本被错误地对齐,作者提出了用多个判别器来捕捉多模式结构,判别器的个数正好等于原域样本的种类数。 Weighted Adversarial Nets 选择出源域中与目标域那部分类别最接近的样本,给它们赋予高权重,然后进行迁移。

    # 2.4 Reconstruction-based DA(基于重建的)

    DRCN 利用源域和目标域共同提取特征,要求这些特征同时适合分类源域和重构目标域。DSN 提取不同域之间的公有特征以及利用公有特征进行迁移避免负迁移(negative transfer)

    # 2.5 Others

    Asymmetric Tri-training 在使用2个Classifier去构建目标域的Pseudo Label,另外一个分类器学习伪标签的特征表达

    # 3、参考资料

    • 《迁移学习简明手册》 (opens new window)

    • Deep Visual Domain Adaptation: A Survey (opens new window)

    • [深度迁移学习综述 PPT](http://whdeng.cn/papers/deep%20domain%20adaptation%20tutorial-- small.pdf)

    - 深度迁移学习综述讲解视频 (opens new window)

    上次更新: 2021/08/02, 21:04:52
    基于深度学习的图像分割技术
    如何计算一个模型的FPS,Params,GFLOPs

    ← 基于深度学习的图像分割技术 如何计算一个模型的FPS,Params,GFLOPs→

    最近更新
    01
    Structured Knowledge Distillation for Semantic Segmentation
    06-03
    02
    README 美化
    05-20
    03
    常见 Tricks 代码片段
    05-12
    更多文章>
    Theme by Vdoing | Copyright © 2021-2023 Muyun99 | MIT License
    • 跟随系统
    • 浅色模式
    • 深色模式
    • 阅读模式
    ×