wuvin
Always take risks!
Toggle navigation
wuvin
主页
实验室的搬砖生活
机器学习
公开的学术内容
公开的其他内容
About Me
归档
标签
友情链接
ZYQN
ihopenot
enigma_aw
hzwer
杨宗翰
[ICML 2017 best paper] Understanding Black-box Predictions via Influence Functions
? Intepretability ?
2020-04-27 21:38:52
856
0
0
wuvin
? Intepretability ?
# Abstract  # Method  接着还是局部线性拟合研究一个样本的权重对预测的影响  以上 $I_{up,loss}(z,z_{test})$ 还可以用于衡量两个样本的距离。 ## $I$的计算方式    这个修正数据标注,看起来非常利害,但是仔细看发现其实没啥用,查$20\%$的数据才能找出$80\%$的错误,这个和直接反复验证对于预测权重影响较高的数据是一样的(因为本来数据由于重复程度,所以对于总体数据中重要的$20\%$基本已经可以决定预测结果了,但是检查$20%$的数据也非常费时费力)。 # 摘自 https://zhuanlan.zhihu.com/p/28520049
上一篇:
KNOWLEDGE CONSISTENCY BETWEEN NEURAL NETWORKS AND BEYOND
下一篇:
Random Ferns
0
赞
856 人读过
新浪微博
微信
腾讯微博
QQ空间
人人网
提交评论
立即登录
, 发表评论.
没有帐号?
立即注册
0
条评论
More...
文档导航
没有帐号? 立即注册