社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

研究前沿:浙江大学-深度学习-几何解释 | Nature Machine Intelligence

今日新材料 • 2 周前 • 22 次点击  

机器学习模型的可解释性,备受关注,特别是在高精度和可问责性至关重要的科学领域。

近日,浙江大学Jiajun Zhu, 佐治亚理工学院 (Georgia Institute of Technology)Siqi Miao,Pan Li等,在Nature Machine Intelligence上发文,重点是区分两种关键的数据模式,即敏感模式(模型相关)和决定性模式(任务相关)。这两种模式通常用作模型解释,但经常导致混淆。具体来说,比较了两种主流的解释方法:事后方法和自解释方法,在检测这些模式中的有效性。
最近,在各种科学应用中,几何深度学习geometric deep learning (GDL)显示出了优越的预测性能,迫切需要有原则的解释方法。利用几个具有代表性的何深度学习GDL应用程序作为案例研究,评估了应用于3个主要几何深度学习GDL主干模型的13种解释方法,使用4个科学数据集,评估了这些方法如何识别敏感和决定性的模式。
研究表明,事后方法倾向于提供与敏感模式更一致的解释,而某些自解释方法在检测决定性模式方面,表现出强大而稳定的性能。这一研究,为提高这些解释方法的可靠性提供了见解。

Towards unveiling sensitive and decisive patterns in explainable AI with a case study in geometric deep learning.

几何深度学习的案例研究,揭示了可解释人工智能中的敏感和决定性模式。


图1:几何深度学习geometric deep learning,GDL模型解释及其评估概述。


图2:三种主干模型的各种模型的决定性诱导保真度AUC。


图3:分类ROC-AUC与解释ROC-AUC,用于SynMol和ActsTrack数据集上的事后和自解释方法。

文献链接
Zhu, J., Miao, S., Ying, R. et al. Towards unveiling sensitive and decisive patterns in explainable AI with a case study in geometric deep learning. Nat Mach Intell (2025). 
https://doi.org/10.1038/s42256-025-00998-9
本文译自Nature。
来源:今日新材料
声明:仅代表译者观点,如有不科学之处,请在下方留言指正!

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/180155
 
22 次点击