wuvin
Always take risks!
Toggle navigation
wuvin
主页
实验室的搬砖生活
机器学习
公开的学术内容
公开的其他内容
About Me
归档
标签
友情链接
ZYQN
ihopenot
enigma_aw
hzwer
杨宗翰
TransGAN: Two Transformers Can Make One Strong GAN
2021-02-19 17:03:48
1336
0
0
wuvin
# TransGAN: Two Transformers Can Make One Strong GAN --- ## Info * Conference: arxiv 刚公开4天 * Cites: 0 * Github Stars: 529 * Github Solved/Issue: 3/5 * Author: ![title](https://leanote.com/api/file/getImage?fileId=602f7f97ab644126fa000293) ![title](https://leanote.com/api/file/getImage?fileId=602f7fafab644124fe0002bd) --- # Main Idea * 用 Transformer 造 GAN。生成部分以像素为单位生成,识别部分还是用的patch为单位。 * ![title](https://leanote.com/api/file/getImage?fileId=602f807eab644124fe0002c8) * 和试别一样,数据增强对 Transformer based 比 Conv based 提高更显著。 * ![title](https://leanote.com/api/file/getImage?fileId=602f80deab644124fe0002cb) * 训练的时候,使用 mask 实现了 locality。 * ![title](https://leanote.com/api/file/getImage?fileId=602f813dab644124fe0002cd) # Results * ![title](https://leanote.com/api/file/getImage?fileId=602f8183ab644124fe0002d6) * ![title](https://leanote.com/api/file/getImage?fileId=602f80ceab644124fe0002ca) * ![title](https://leanote.com/api/file/getImage?fileId=602f8193ab644124fe0002d7) # Comments * Classification 打平, Detection Segmentation 超越, GAN 略低。还有什么 CNN 的事情是 Transformer 还没做的?
上一篇:
High-Performance Large-Scale Image Recognition Without Normalization
下一篇:
机器学习顶会时间表
0
赞
1336 人读过
新浪微博
微信
腾讯微博
QQ空间
人人网
提交评论
立即登录
, 发表评论.
没有帐号?
立即注册
0
条评论
More...
文档导航
没有帐号? 立即注册