VAE    2020-07-01 17:06:14    501    0    0

Auto-Encoding Variational Bayes


Info

  • Conference: ICLR 2014
  • Cites: 9522
  • Github Stars: --
  • Github Solved/Issue: --
  • Author: title

Main Idea

  • VAE 介绍
  • 目标:近似 P(X) 的分布
  • title
  • P(Z|X) 服从 N(0,I), 从而 P(Z) 也是 N(0,I)
  • title
  • 与 Auto Encoder 不同的是,中间这一部分是正态分布
  • title
  • 解决采样不可导问题
  • title
  • 训练时中间分布的loss (与 N(0,I) 的 KL):
  • title
2020-07-01 17:06:00    20    0    0

Title


Info

  • Conference:
  • Cites:
  • Github Stars:
  • Github Solved/Issue:
  • Author:

Main Idea

Domain Adaptation    2020-06-29 21:46:34    391    0    0

Differential Treatment for Stuff and Things: A Simple Unsupervised Domain Adaptation Method for Semantic Segmentation


Info

  • Conference: CVPR 2020
  • Cites: 4
  • Github Stars: 9
  • Github Solved/Issue: 0/0
  • Author: title

Main Idea

  • 分割中的类中心对齐,对齐 stuff(天,树,地) 的特征和 Instance 的特征,其中对齐 Instance 的特征是为了保留 Instance 的单个特性
  • title
  • title
  • Loss 设计上就是目标域特征离源域最近特征的L1距离
  • title
  • title
  • 整体效果可以
  • title
  • title
  • 其中SSL是self-supervised learning, 训练分两步,第一步常规对抗训练
  • title
  • 第二步加上 pseudo labels (按照置信度来划分的阈值)。

Comments

  • 网络结构图里面没有 image transferring, 但是 ablation study 里面有,文章也没说到底用在哪里。
  • 类中心对齐有了,伪标签也有了,还差个moving average了(这个到底和mutual learning重吗)
2020-06-29 21:46:31    413    0    0

ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation


Info

  • Conference: CVPR2019 Oral
  • Cites: 74
  • Github Stars: 174
  • Github Solved/Issue: 15/20 (unsolved issue with reproducibility)
  • Author: title

Main Idea

  • 把网络分割输出的熵(置信度)作为一个可学习项。
  • title
  • title
  • 网络结构
  • title
  • 方法有直接最小化,或者用一个Discriminator
  • title
Domain Adaptation    2020-06-29 21:46:29    512    0    0

Bidirectional Learning for Domain Adaptation of Semantic Segmentation


Info

  • Conference: CVPR 2019
  • Cites:
  • Github Stars: 143
  • Github Solved/Issue: 19/38
  • Author: title

Main Idea

  • 整体来讲,多个一个segmentation的语义损失用于更新图像翻译。
  • 同样的逐步生成的伪label。

  • 结构

  • title
  • 语义损失
  • title
  • 伪label
  • title
  • title
  • title
  • title
  • title
  • 效果
  • title
  • title
  • Ablation Study
  • title
  • title
  • title
Domain Adaptation    2020-06-29 21:46:28    485    0    0

Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain Adaptive Semantic Segmentation


Info

  • Conference: --
  • Cites: 0
  • Github Stars: 83
  • Github Solved/Issue: 5/5
  • Author: title

Main Idea

  • 用 variance 代替 confidence 生成伪lable, 感觉就和多模型ensemble判断置信度一样。
  • title
  • title
  • title
  • 和预测的confidence的区别
  • title
  • 竟然上50了, 上界是 65
  • title
  • title
Domain Adaptation    2020-06-29 21:45:22    476    0    0

Unsupervised Scene Adaptation with Memory Regularization in vivo


Info

  • Conference: IJCAI 2020
  • Cites: 1
  • Github Stars: 83
  • Github Solved/Issue: 5/5
  • Author: title

Main Idea

  • 在 Classification Head 上 DML,然后叠加已有方法
  • title
  • title
  • 训练过程, Lmr 是KL loss,
  • title
  • Ablation study
  • title
  • 效果显著
  • title
Domain Adaptation    2020-06-29 21:36:50    472    0    0

Unsupervised Intra-domain Adaptation for Semantic Segmentation through Self-Supervision

Info

  • Conference: CVPR2020 Oral
  • Cites: 0
  • Github Stars: 110
  • Github Solved/Issue: 0/1
  • Author: title

  • 首先第一步做 domain 间的UDA,然后根据预测的置信度把图片分成两部分,高置信度和低置信度之间做UDA。
  • title
  • 我对这个是否work表示怀疑,在分类上试过这个操作,没有任何效果,本质上不给模型提供任何extra information。
  • title
  • 其中 λ 是简单部分的占比。
  • 效果
  • title
  • title
Domain Adaptation    2020-06-29 11:07:28    358    0    0

Info

  • Conference: ICCV 2019
  • Cites: 18
  • Github Stars: 129
  • Github Solved/Issue: 4/4
  • Author: title

Main Idea

  • 变相数据增强,一个adversarial 的 dropout,dropout的目标是使得同一个输入的输出尽可能差距大。这个目的与VAT(输入上加扰动)相似。从而达到增强模型泛化能力的目的。
  • title
  • Loss 有 Task Loss, Dropout Loss, Entropy Loss (增强模型输出的置信度), VAT Loss.
  • title
  • 这个结果不好评价,和一般的DA不是
  • title
  • title
Domain Adaptation    2020-06-29 10:34:51    359    0    0

Info

  • Conference: ICML 2018
  • Cites: 90
  • Github Stars: 85
  • Github Solved/Issue: 6/9
  • Author: title
  • title

Main Idea

  • 我好像去年复现过这篇文章,复现非常容易,超参基本不调效果都很好。
  • 期望 Source 和 Target 都能到同一个 Feature Space。
  • title
  • 源域分类损失,对抗判别器损失,两个域类别中心的距离
  • title
  • 用到的 Moving Average
  • title
  • 效果,可惜只做了classification
  • title
  • title