机器学习模型的可解释性对于建立信任和调试人工智能系统至关重要,尤其是在影响人类决策的领域。然而,文章指出,最流行的可解释人工智能方法,特别是基于Shapley值的SHAP分数,缺乏严谨性,可能提供误导性信息。文章通过分析决策树分类器和布尔函数,证明了SHAP分数可能无法准确反映特征对预测的实际影响,甚至可能将不重要的特征评为重要特征,从而误导决策者。