收藏文章 楼主

NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品

版块:科技头条   类型:普通   作者:科技资讯   查看:49   回复:0   获赞:0   时间:2023-10-25 08:55:01

Segment Anything Model(SAM)首次被应用到了基于增强概念的可解释 AI 上。


你是否好奇当一个黑盒深度神经网络 (DNN) 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大?


香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。

  • 论文:https://arxiv.org/abs/2305.10289

  • 项目代码:https://github.com/Jerry00917/samshap

继 Meta 的分割一切 (SAM) 后,港科大团队首次借助 SAM 实现了人类可解读的任意 DNN 模型图像概念解释器:Explain Any Concept (EAC)。


你往往会看到传统的 DNN 图像概念解释器会给出这样的解释 (SuperPixel-Based):


但这类输出通常不能完整地将 DNN 对于输入图像里概念的理解表达给人类。


港科大团队首次将具有强大的概念抓取力的 SAM 和博弈论中夏普利公理 (Shapley Value) 结合起来,构建了端对端具有完整概念的模型解释器,并呈现了非常令人惊叹的结果!! 


现在,用户只需要将任意 DNN 接入该解释器的 API,EAC 就可以精准地解释出图中哪些概念影响了模型最终的输出。


算法原理


如下图所示,解释一切 EAC 的算法流程图可大体分为三个阶段:1)SAM 概念抓取,2)利用 Per-Input Equivalence (PIE) 模拟目标 DNN 模型,3)通过计算出 PIE 的夏普利公理值得出近似原目标 DNN 的最终概念解释输出。


夏普利值实现


在博弈论中,夏普利公理的地位举足轻重。基于它,研究人员可以推算出图片里每一个概念对目标模型输出的贡献值,从而得知哪些概念对于模型预测的帮助最大。不过计算夏普利值所需要的时间复杂度为 O (2^N),这对于几乎任何一个成熟的深度学习模型是灾难性的计算量。


本文为了解决这一问题提出了 Per-Input Equivalence (PIE)轻量型框架。PIE 希望通过一个 surrogate model f' 将原目标 DNN 模型 f 做局部拟合。


PIE 的完整表达式为


。这里 f_fc 完全保留了原模型的全连接层,h 是一层线性权重用于模拟 f 的特征提取器,输入 b 为一维 one-hot 对一张目标图片里的概念集 C(由 SAM 生成)的编码。算法通过对 PIE 进行蒙特卡洛估算,就可得出 f^' 对于 f 的近似夏普利值。


文章指出 PIE 的运算十分轻量。在 COCO 标准测试集上,将目标模型设为 ResNet50,平均解释时间仅约为 8.1 秒 / 一张图片。


实验结果


通过给每张测试图逐一添加(Insertion)/ 删除(Deletion)最重要的概念 patch,这两项实验研究者可以直接评估任意解释器在解释目标 DNN 时的表现。


EAC 同时在「添加」和「删除」两项实验中实现了比较优秀的解释效果。


以下是 EAC 效果展示和 baseline 对比:


在文章的最后,团队表示有了 EAC 这项技术,医疗影像,智慧安防等重要的可信机器学习商用应用场景会变的更准确,更可靠。


© THE END 


转载请联系本公众号获得授权


投稿或寻求报道:content@jiqizhixin.com

 
回复列表
默认   热门   正序   倒序

回复:NeurIPS 2023 | 「解释一切」图像概念解释器来了,港科大团队出品

Powered by 7.12.10

©2015 - 2026 90Link

90link品牌推广 网站地图

您的IP:10.1.201.110,2026-04-06 22:54:46,Processed in 0.24609 second(s).

豫ICP备2023005541号

头像

用户名:

粉丝数:

签名:

资料 关注 好友 消息
免责声明
  • 1、本网站所刊载的文章,不代表本网站赞同其观点和对其真实性负责,仅供参考和借鉴。
  • 2、文章中的图片和文字版权归原作者所有,如有侵权请及时联系我们,我们将尽快处理。
  • 3、文章中提到的任何产品或服务,本网站不对其性能、质量、适用性、可靠性、安全性、法律合规性等方面做出任何保证或承诺,仅供读者参考,使用者自行承担风险。
  • 4、本网站不承担任何因使用本站提供的信息、服务或产品而产生的直接、间接、附带或衍生的损失或责任,使用者应自行承担一切风险。

侵权删除请致信 E-Mail:3454251265@qq.com