wuvin
Always take risks!
Toggle navigation
wuvin
主页
实验室的搬砖生活
机器学习
公开的学术内容
公开的其他内容
About Me
归档
标签
友情链接
ZYQN
ihopenot
enigma_aw
hzwer
杨宗翰
Domain Generalization with Adversarial Feature Learning
2020-12-15 23:19:06
2705
0
0
wuvin
# Domain Generalization with Adversarial Feature Learning --- ## Info * Conference: CVPR 2018 * Cites: 144 * Github Stars: 25 * Github Solved/Issue: 1/2 * Author: ![title](https://leanote.com/api/file/getImage?fileId=5fd8d448ab644152f30003bd) --- ## Main Idea * Domain Generalization 是用已有数据进行训练(已有数据可以是多个域),使得在从未见过的数据集上有更好的泛化能力。 * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d4b1ab644154ec000423) * 这篇文章通过一个 Auto-Encoder 和 GAN 期望这个 Auto-Encoder 能够给出一个具有泛化能力的编码。 * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d517ab644152f30003c0) * 所以训练时的损失包含:正常分类损失+Auto-Encoder重建损失+多个域在编码后空间之间的MMD损失+GAN的损失 * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d582ab644152f30003c1) * 其中 MMD 计算方式为(即各域在隐空间编码中心的距离): * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d610ab644152f30003c2) * GAN 部分为了稳定训练把第一个的log改成了L2。 * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d666ab644154ec00042a) ## Results * 数据集使用了不同旋转角度的MNIST, VLCS数据集(一共五种分类,来自四个不同的数据集),IXMAS数据集(11种动作,拍自5种不同的视角) * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d6d8ab644152f30003c5) * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d6e3ab644152f30003c7) * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d6eeab644154ec00042b) * 数字数据集 ![title](https://leanote.com/api/file/getImage?fileId=5fd8d8b7ab644152f30003d8) * VLCS ![title](https://leanote.com/api/file/getImage?fileId=5fd8d8d8ab644154ec000431) ![title](https://leanote.com/api/file/getImage?fileId=5fd8d8cdab644152f30003d9) * IXMAS ![title](https://leanote.com/api/file/getImage?fileId=5fd8d8ecab644154ec000432) ![title](https://leanote.com/api/file/getImage?fileId=5fd8d8cdab644152f30003d9) * 对比的几种方法大部分都是作者自己造的 * ![title](https://leanote.com/api/file/getImage?fileId=5fd8d7a0ab644154ec00042d) * Ablation Study * ![title](https://leanote.com/api/file/getImage?fileId=5fd8da09ab644154ec000434) ## Comments * 由于这篇比较早,所以看起来哪都是问题。GAN稳定训练的方式不对,如果GAN训练好了MMD loss 没有必要。 * Auto-Encoder 的 loss 会促使中间层表示保留域都有信息,与期望的初衷相悖。 * Baseline 比较弱,可能本身ACC就不高。
上一篇:
Domain Generalization by Solving Jigsaw Puzzles
下一篇:
Open Set Domain Adaptation
0
赞
2705 人读过
新浪微博
微信
腾讯微博
QQ空间
人人网
提交评论
立即登录
, 发表评论.
没有帐号?
立即注册
0
条评论
More...
文档导航
没有帐号? 立即注册