专家警告:AI系统的可解释性存在欺骗可能
创始人
2025-07-30 09:20:30

原标题:专家警告:AI系统的可解释性存在欺骗可能

德国人工智能研究中心(DFKI)研究团队在日前召开的国际机器学习大会上报告称,在可解释人工智能(AI)领域,“X-hacking”是一个此前被普遍忽视的风险,并呼吁批判性和反思性地使用自动化机器学习(AutoML)工具。

如果AI系统作出了正确预测,但却以完全不同的方式解释其得出的这些结果,会发生什么?DFKI数据科学团队介绍了“X-hacking”给AI可信度带来结构性风险的研究成果。

X-hacking一词源于统计学中的P-hacking。所谓P-hacking指的是研究人员可通过一些数据操作技巧,在统计学上得出一个有显著意义的结果,即使这个结果实际上并无意义。这相当于一种数据篡改,可能会导致发布假阳性结果。

相应的X-hacking描述了两种核心机制:一是Cherry-picking,即从众多同样优秀的模型中,精心挑选出解释能力最强、最能支持预期结果的模型;二是定向搜索,AutoML系统不仅能优化预测性能,还能精准地找到具有特定解释模式的模型。但这里面存在的风险往往被低估。

即使模型得出的结果几乎相同,所谓的特征重要性也可能存在巨大差异。这在医学研究或社会科学等应用领域尤为敏感,因为在这些领域,可解释的模型通常构成关键决策的基础。

AutoML代表了开发、选择和优化机器学习模型的自动化流程。软件工具接管了许多以前只有经验丰富的机器学习工程师才能完成的任务,例如选择合适的模型架构、数据预处理和超参数优化等。在医学、工业或社会研究等数据密集型领域,AutoML有望实现更快的开发速度、更低的进入门槛和可重复的结果。

然而,这种自动化使得人们难以理解模型决策的制定方式,这是可解释AI的一个关键问题。因此,DFKI研究团队建议,使用AutoML的学科应该意识到方法的风险,而不仅仅只是信任软件。(记者李山)

相关内容

热门资讯

每日一题丨两个孩子在特长方面互... 指导专家:赵晴博士,现就职于中国科学院心理研究所。2018年在澳大利亚格里菲斯大学毕业,获得应用心理...
2026年全国教育科研工作会议... 人民网北京4月13日电 (记者孙竞)10日至11日,2026年全国教育科研工作会议在京召开。会议聚焦...
课文作家走进校园 书香校园联盟... 人民网北京4月13日电 日前,中小学“书香校园”联盟系列活动之“语文教学与课文作家作品”观摩研讨活动...
《高等教育新视野(英文)》创刊 人民网北京4月13日电 (记者孙竞)11日,由中国高等教育学会与厦门大学共同主办的英文学术期刊《高等...
聚焦人工智能、星际航行 国科大... 人民网北京4月12日电 (记者郝孟佳)近日,中国科学院在怀机构教育科技人才一体发展工作推进会在中国科...
贵州黔西:春日趣玩“动”见成长 2026年4月9日,贵州黔西市杜鹃街道第一幼儿园开展“春日趣玩‘动’见成长”主题活动,通过堆雪花片、...
道路险情的“急救师”(新职·...   玉大熙(左一)与交警、路政工作人员一起指挥车辆通行。  某次假期,在对一辆起火货车的救援中,玉大...
青年让国际中文教育更有温度   位于智利蓬塔阿雷纳斯的麦哲伦大学孔子学院正在上中文课。  新华社发  从成立之初到现在,南非开普...