Muyun99's wiki Muyun99's wiki
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Muyun99

努力成为一个善良的人
首页
学术搬砖
学习笔记
生活杂谈
wiki搬运
资源收藏
关于
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 论文摘抄

  • 论文阅读-图像分类

  • 论文阅读-语义分割

  • 论文阅读-知识蒸馏

  • 论文阅读-Transformer

  • 论文阅读-图卷积网络

  • 论文阅读-弱监督图像分割

  • 论文阅读-半监督图像分割

  • 论文阅读-带噪学习

  • 论文阅读-小样本学习

  • 论文阅读-自监督学习

  • 语义分割中的知识蒸馏

  • 学术文章搜集

    • Awesome-weakly-supervised-semantic-segmentation
  • 论文阅读-其他文章

  • 学术搬砖
  • 学术文章搜集
Muyun99
2021-10-14

Awesome-weakly-supervised-semantic-segmentation

Tricks

  • CAN:借助先验分布提升分类性能的简单后处理技巧:https://kexue.fm/archives/8728

    • 用先验分布来校正低置信度的预测结果,使得新的预测结果的分布更接近先验分布。
  • 数据增强:图像分类训练技巧之数据增强篇:https://zhuanlan.zhihu.com/p/430563265

知识蒸馏

  • KDD 2020 | 优势特征蒸馏在淘宝推荐中的应用 (opens new window)

  • 深度学习中的知识蒸馏技术(上) (opens new window)

GCN

  • 2020年,我终于决定入门GCN (opens new window)

  • graph convolutional network有什么比较好的应用task? (opens new window)

图像分割

  • 单阶段实例分割综述 (opens new window)

端侧网络

  • 反向 Dropout!韩松团队最新工作NetAug:https://mp.weixin.qq.com/s/tBEpRZ3mAQpEmc27g2HuEA
    • 现有的正则技术(比如数据增强、dropout)在大网络方面(比如ResNet50)方面通过添加噪声使其避免过拟合取得了极大成功。然而,我们发现:这些正则技术会损害TinyNN的性能(见下图)。 我们认为:不同于大网络通过增广数据提升性能,TinyNN应当通过增广模型提升性能 。这是因为:受限于模型大小,TinyNN往往存在欠拟合现象而非过拟合 。

工业界实践

  • 图像检索在高德地图POI数据生产中的应用:https://www.modb.pro/db/156377
    • img
    • 多模态图像检索

学术

  • 在做算法工程师的道路上,你掌握了什么概念或技术使你感觉自我提升突飞猛进?:https://www.zhihu.com/question/436874654
上次更新: 2023/03/25, 19:58:09
Structured Knowledge Distillation for Semantic Segmentation
Decompose to Adapt Domain Disentanglement Faster-RCNN for Cross-domain Object Detection

← Structured Knowledge Distillation for Semantic Segmentation Decompose to Adapt Domain Disentanglement Faster-RCNN for Cross-domain Object Detection→

最近更新
01
Structured Knowledge Distillation for Semantic Segmentation
06-03
02
README 美化
05-20
03
常见 Tricks 代码片段
05-12
更多文章>
Theme by Vdoing | Copyright © 2021-2023 Muyun99 | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式
×