随着图神经网络(GNN)的日益成功,GNN 的可解释性引起了相当大的关注。作为一种流行的生成事后解释(Post-hoc Explanation)的技术,特征归因将 GNN 的预测分布到输入图的特征上,从而突出显着特征。然而,目前的工作主要集中在统计可解释性上,难以区分输入特征对结果预测的因果影响和非因果影响,并且几乎无法量化特征之间的冗余,从而导致事后解释失真。在本次报告中,王翔将介绍两种新型方案:基于多粒度的类“预训练-精调”事后解释,基于强化学习的“因果筛选”事后解释,并进一步针对事后解释衡量框架的失真性进行探索,引出基于不变学习的内在可解释(Intrinsically Interpretable)图神经网络,不仅可以使得预测透明化,而且还可以增强模型的泛化能力与鲁棒性。
王翔,中国科学技术大学特任教授、博导。2019年于新加坡国立大学取得计算机科学博士学位,师从Chua Tat-Seng教授。研究方向包括信息检索与推荐、数据挖掘、可解释与可信人工智能、图深度学习等,在相关CCF A类国际顶级会议和期刊发表论文50余篇,包括TPAMI、NeurIPS、SIGIR、KDD、CVPR、IEEE S&P等,谷歌学术引用6900余次。在2022年AI 2000人工智能最具影响力学者“信息检索与推荐”领域排名第13。担任众多顶级期刊、会议审稿人与程序委员。个人主页:http://staff.ustc.edu.cn/~xiangwang。