机器学习模型的可解释性,备受关注,特别是在高精度和可问责性至关重要的科学领域。
近日,浙江大学Jiajun Zhu, 佐治亚理工学院 (Georgia Institute of Technology)Siqi Miao,Pan Li等,在Nature Machine Intelligence上发文,重点是区分两种关键的数据模式,即敏感模式(模型相关)和决定性模式(任务相关)。这两种模式通常用作模型解释,但经常导致混淆。具体来说,比较了两种主流的解释方法:事后方法和自解释方法,在检测这些模式中的有效性。最近,在各种科学应用中,几何深度学习geometric deep learning (GDL)显示出了优越的预测性能,迫切需要有原则的解释方法。利用几个具有代表性的何深度学习GDL应用程序作为案例研究,评估了应用于3个主要几何深度学习GDL主干模型的13种解释方法,使用4个科学数据集,评估了这些方法如何识别敏感和决定性的模式。研究表明,事后方法倾向于提供与敏感模式更一致的解释,而某些自解释方法在检测决定性模式方面,表现出强大而稳定的性能。这一研究,为提高这些解释方法的可靠性提供了见解。
Towards unveiling sensitive and decisive patterns in explainable AI with a case study in geometric deep learning.几何深度学习的案例研究,揭示了可解释人工智能中的敏感和决定性模式。

图1:几何深度学习geometric deep learning,GDL模型解释及其评估概述。

图2:三种主干模型的各种模型的决定性诱导保真度AUC。

图3:分类ROC-AUC与解释ROC-AUC,用于SynMol和ActsTrack数据集上的事后和自解释方法。
Zhu, J., Miao, S., Ying, R. et al. Towards unveiling sensitive and decisive patterns in explainable AI with a case study in geometric deep learning. Nat Mach Intell (2025). https://doi.org/10.1038/s42256-025-00998-9声明:仅代表译者观点,如有不科学之处,请在下方留言指正!