硕士研究生的可解释GNN研究成果被AAAI26录用为Oral论文

       近日,人工智能领域的权威学术会议The 40th Annual AAAI Conference on Artificial Intelligence (AAAI 2026) 公布了Main Track论文接收结果,二年级硕士研究生陈林茂作为1作的论文“Generating in-distribution counterfactual explanation for graph neural networks”以Oral形式获得录用,将获邀参加大会的现场口头报告。AAAI是中国计算机学会(CCF)认定的A类国际会议,本届会议将于2026年1月20日至27日在新加坡举行,共收到23680份有效投稿,最终接收论文4167篇,录用率为17.6%,其中Oral论文占比20%左右。  

附论文基本信息:
标题:Generating in-distribution counterfactual explanation for graph neural networks 
作者:陈林茂(华南师范大学)、贺超波(华南师范大学 通讯作者)、程俊伟(华南师范大学)、李春英(广东技术师范大学)、官全龙(暨南大学)
摘要:图神经网络(GNN)由于其处理图结构数据的强大能力而受到越来越多的关注,但其可解释性仍然是一个重大的挑战。一种有效的解决方案是为GNN模型提供反事实解释,其目的是回答“应该如何扰动输入实例以改变模型的预测?”.现有的工作主要关注于生成可以有效改变模型预测的解释,但忽略了解释是否与原始数据分布保持一致,从而导致分布漂移问题。为了解决该问题,提出了一种称为ICExplainer的新方法,用于在原始分布内生成解释。具体而言,ICExplainer将基于图扩散的生成模型引入反事实推理,将其视为图分布学习的优化目标。使用变分推理估计输入图的真实分布,以保留基本的结构和语义信息,然后推断的分布作为指导反向过程的先验知识,以确保生成的解释既是反事实的,又是分布一致的。在真实和合成的数据集上进行了大量实验,结果验证了ICExplainer的优异性能。

 


登录用户可以查看和发表评论, 请前往  登录 或  注册
SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: