Muyun99's wiki Muyun99's wiki
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Muyun99

努力成为一个善良的人
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 代码实践-目标检测

  • 代码实践-图像分割

  • 代码实践-自监督学习

  • 竞赛笔记-视觉竞赛

  • 框架解析-mmlab系列

  • 讲座记录-有意思的文章集合

    • 尚未阅读的各类文章
    • 一些需要注意的点
    • 不确定性学习在视觉识别中的应用
    • VALSE Webinar 21-19 弱监督视觉学习:定位、分割和其他
    • A Tutorial of Transformers
    • 样本生而不等
    • VALSE Webinar 20-02 元学习与小样本学习
      • VALSE Webinar 20-02 元学习与小样本学习
        • 01、Siyuan Qiao JHU
        • 02、Deyu Meng XJTU
  • 体会感悟-产品沉思录观后有感

  • 体会感悟-摄影

  • 系列笔记-

  • 系列笔记-乐理和五线谱

  • 系列笔记-爬虫实践

  • 系列笔记-Django学习笔记

  • 系列笔记-Git 使用笔记

  • 系列笔记-网站搭建

  • 系列笔记-图卷积网络

  • 课程笔记-MIT-NULL

  • 系列笔记-OpenCV-Python

  • 系列笔记-使用 Beancount 记账

  • 系列笔记-Python设计模式

  • 系列笔记-MLOps

  • 系列笔记-Apollo自动驾驶

  • 系列笔记-PaddlePaddle

  • 系列笔记-视频操作

  • Vue+Django前后端分离开发

  • 深度学习及机器学习理论知识学习笔记

  • PyTorch Tricks

  • 学习笔记
  • 讲座记录-有意思的文章集合
Muyun99
2021-09-13

VALSE Webinar 20-02 元学习与小样本学习

# VALSE Webinar 20-02 元学习与小样本学习

# 01、Siyuan Qiao JHU

# Few-Shot Image Recognition by Predictiong Parameters from Activations (CVPR 2018)

m-shot n-way image recognition

  • m-shot: each new class has m training images
  • n-way: predict the class of test images from n classes

Few-shot + large-scale image recognition

  • pre-training on large-scale datasets(black) and few-shot adaptation to new classes(green).
  • 有点像 open-set 问题设置

两个数据集:Few-shot DfewD_{few}Dfew​ 和 DlargeD_{large}Dlarge​

目标:在两个数据集上效果都比较优异

两个小tricks:

  • Multi-View:

  • 集成学习, 学两个映射

# 02、Deyu Meng XJTU

鲁棒深度学习与元学习

  • 深度学习:标注质量很高的数据集,但是现实情况中数据是存在偏差的(Data bias),例如小样本、弱监督、标签带噪

    • Label Noise:标签是带有噪声的
    • Data Noise:数据本身带有噪声的
    • Class imbalance:类别不平衡
  • 鲁棒学习

    • 设计不同的鲁棒优化目标,例如鲁棒的损失函数
    • 化腐朽为神奇:从质量很差的数据集中依然能抽取出我们想要的信息
    • 损失函数
      • Label Noise
        • Generalized CE (NeurIPS 2018)
        • Symmetric CE (ICCV 2019)
        • Bi-Tempered logistic loss (NeurIPS 2019)
        • Polynomial Softweighting loss (AAAI 2015)
      • Focal loss (TPAMI 2018):class imbalance
      • CT loss (TMI 2018): data noise
      • 问题:需要设置超参数,非凸优化
  • 元学习

  • 验证数据集和训练数据集的区别

    • 验证数据集用于超参数的调整,训练数据集用于分类器参数的学习
  • 设计一个 Meta loss

    • Optimization instead of search
    • Intelligent instead of heuristic (partially)
  • Sample Reweighting methods

    • Self-paced
    • Linear weighting
    • Focal Loss
    • Hard example mining:采样
    • Prediction variance
  • 对样本的损失前加一个权重,放大/缩小一些样本损失

    • 出现了截然不同的两种加权策略
      • 误差大权重小,误差小权重大:认为误差大的样本是噪声样本(label noise)
      • 误差大权重大,误差小权重小:认为误差大的样本是难样本(class imbalance $ ohem)
    • 使用 Meta Learning,将样本权重当做超参数去学出来
      • MentorNet:V太多了,不能有效地利用前序信息,训练起来不稳定
      • Meng组的改进:Meta-Weight-Net
        • Meta-Weight-Net: Learning an Explict Mapping for Sample Weighting. (NeuIPS 2019)
        • 将V变成一个函数,输入是Loss,输出是weight,函数希望既能够拟合单调递增又能够拟合单调递减,所以就用MLP来实现
        • 从下图中可以看出,学的确实不错
        • image-20210913153013752
上次更新: 2021/09/26, 00:09:41
样本生而不等
20210411 控制输入,才能更好地控制输出

← 样本生而不等 20210411 控制输入,才能更好地控制输出→

最近更新
01
Structured Knowledge Distillation for Semantic Segmentation
06-03
02
README 美化
05-20
03
常见 Tricks 代码片段
05-12
更多文章>
Theme by Vdoing | Copyright © 2021-2023 Muyun99 | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式
×