标签 - Domain Adaptation

? Domain Adaptation ?    2020-06-29 21:46:34    1161    0    0

Differential Treatment for Stuff and Things: A Simple Unsupervised Domain Adaptation Method for Semantic Segmentation


Info

  • Conference: CVPR 2020
  • Cites: 4
  • Github Stars: 9
  • Github Solved/Issue: 0/0
  • Author: title

Main Idea

  • 分割中的类中心对齐,对齐 stuff(天,树,地) 的特征和 Instance 的特征,其中对齐 Instance 的特征是为了保留 Instance 的单个特性
  • title
  • title
  • Loss 设计上就是目标域特征离源域最近特征的L1距离
  • title
  • title
  • 整体效果可以
  • title
  • title
  • 其中SSL是self-supervised learning, 训练分两步,第一步常规对抗训练
  • title
  • 第二步加上 pseudo labels (按照置信度来划分的阈值)。

Comments

  • 网络结构图里面没有 image transferring, 但是 ablation study 里面有,文章也没说到底用在哪里。
  • 类中心对齐有了,伪标签也有了,还差个moving average了(这个到底和mutual learning重吗)
? Domain Adaptation ?    2020-06-29 21:46:29    956    0    0

Bidirectional Learning for Domain Adaptation of Semantic Segmentation


Info

  • Conference: CVPR 2019
  • Cites:
  • Github Stars: 143
  • Github Solved/Issue: 19/38
  • Author: title

Main Idea

  • 整体来讲,多个一个segmentation的语义损失用于更新图像翻译。
  • 同样的逐步生成的伪label。

  • 结构

  • title
  • 语义损失
  • title
  • 伪label
  • title
  • title
  • title
  • title
  • title
  • 效果
  • title
  • title
  • Ablation Study
  • title
  • title
  • title
? Domain Adaptation ?    2020-06-29 21:46:28    939    0    0

Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain Adaptive Semantic Segmentation


Info

  • Conference: --
  • Cites: 0
  • Github Stars: 83
  • Github Solved/Issue: 5/5
  • Author: title

Main Idea

  • 用 variance 代替 confidence 生成伪lable, 感觉就和多模型ensemble判断置信度一样。
  • title
  • title
  • title
  • 和预测的confidence的区别
  • title
  • 竟然上50了, 上界是 65
  • title
  • title
? Domain Adaptation ?    2020-06-29 21:45:22    726    0    0

Unsupervised Scene Adaptation with Memory Regularization in vivo


Info

  • Conference: IJCAI 2020
  • Cites: 1
  • Github Stars: 83
  • Github Solved/Issue: 5/5
  • Author: title

Main Idea

  • 在 Classification Head 上 DML,然后叠加已有方法
  • title
  • title
  • 训练过程, Lmr 是KL loss,
  • title
  • Ablation study
  • title
  • 效果显著
  • title
? Domain Adaptation ?    2020-06-29 21:36:50    583    0    0

Unsupervised Intra-domain Adaptation for Semantic Segmentation through Self-Supervision

Info

  • Conference: CVPR2020 Oral
  • Cites: 0
  • Github Stars: 110
  • Github Solved/Issue: 0/1
  • Author: title

  • 首先第一步做 domain 间的UDA,然后根据预测的置信度把图片分成两部分,高置信度和低置信度之间做UDA。
  • title
  • 我对这个是否work表示怀疑,在分类上试过这个操作,没有任何效果,本质上不给模型提供任何extra information。
  • title
  • 其中 λ 是简单部分的占比。
  • 效果
  • title
  • title
? Domain Adaptation ?    2020-06-29 11:07:28    427    0    0

Info

  • Conference: ICCV 2019
  • Cites: 18
  • Github Stars: 129
  • Github Solved/Issue: 4/4
  • Author: title

Main Idea

  • 变相数据增强,一个adversarial 的 dropout,dropout的目标是使得同一个输入的输出尽可能差距大。这个目的与VAT(输入上加扰动)相似。从而达到增强模型泛化能力的目的。
  • title
  • Loss 有 Task Loss, Dropout Loss, Entropy Loss (增强模型输出的置信度), VAT Loss.
  • title
  • 这个结果不好评价,和一般的DA不是
  • title
  • title
? Domain Adaptation ?    2020-06-29 10:34:51    564    0    0

Info

  • Conference: ICML 2018
  • Cites: 90
  • Github Stars: 85
  • Github Solved/Issue: 6/9
  • Author: title
  • title

Main Idea

  • 我好像去年复现过这篇文章,复现非常容易,超参基本不调效果都很好。
  • 期望 Source 和 Target 都能到同一个 Feature Space。
  • title
  • 源域分类损失,对抗判别器损失,两个域类别中心的距离
  • title
  • 用到的 Moving Average
  • title
  • 效果,可惜只做了classification
  • title
  • title
? Domain Adaptation ?    2020-06-29 10:16:10    369    0    0

Info

  • Conference: CVPR 2019 Oral
  • Cites: 36
  • Github Stars: --
  • Github Solved/Issue: --
  • Author: title

Main Idea

  • 生成中间域,再用中间域的数据做迁移。

  • 做中间域的判别

  • title
  • Cycle loss
  • title
  • pull together
  • title
  • 中间生成结果,这个z还可以是一个向量
  • title
  • 效果不是特别惊人,可能拿oral是因为想法奇特?
  • title
  • 多个域的版本
  • title
  • 总的来讲,感觉就是把cycle gan中的换成 CDGAN。
? Domain Adaptation ?    2020-06-29 09:59:07    595    0    0

Info

  • Conference: NIPS 2018
  • Cites: 215
  • Github Stars: 238
  • Github Solved/Issue: 17/24
  • Author: title

Main Idea

  • 给GAN加condition,不使用直接拼接的方式,改用 Tensor Product(这不就是换channel位置吗)。
  • title
  • 当维度过大的时候,采用随机抽样向量算点积。
  • title
  • 理论部分比较多
  • title
  • title
  • 效果不太行,数字上只比CycADA好一点点(CycADA是17年的东西了),而且也只做了 classification 的实验。
  • title
? Domain Adaptation ?    2020-06-16 20:21:23    705    0    0

Two at Once: Enhancing Learning and Generalization Capacities via IBN-Net

Info

  • Conference: ECCV 2018
  • Cites: 8
  • Github Stars: 566
  • Github Solved/Issue: 9/21
  • Author: title

Main Idea

  • Instance Normalization will hurt performance by igoring mean and var.
  • Batch Normalization is sensitive to appearance variance.
  • Mean and Var have information about appearance variance in shallow layer while repsenting content difference in deeper layer.
  • title
  • So, use more IN in shallow layer, more BN in deeper layer.

  • Structure

  • title
  • Better performance on appearance transforms.
  • title
  • Better performance on common models. (1% increase)
  • title
  • Much better performance on DA
  • title