
书: https://pan.baidu.com/s/1XseSeFJwB_CgmZqmU5-_rQ?pwd=gb4u
笔记如下:
- “模型可解释性的本质是建立人类认知与机器决策之间的可信桥梁。”
- “黑箱模型的高性能不等于高可靠性,缺乏解释可能引发伦理与法律风险。”
- “可解释性两大范式:本质可解释模型(如线性回归)与事后解释方法(如SHAP)。”
- “LIME算法通过局部线性逼近,用可理解的简单模型解释复杂模型的单样本预测。”
- “SHAP值基于博弈论,将预测结果公平分配给每个特征,满足一致性公理。”
- “特征重要性仅显示贡献度,部分依赖图(PDP)能揭示特征与预测的单调性关系。”
- “反事实解释(Counterfactuals)回答关键问题:如何最小化改变输入以翻转预测结果?”
- “锚点解释(Anchors)提供‘如果满足某条件,则预测不变’的确定性规则。”
- “可解释性与准确性往往存在权衡,医疗领域需要80%解释性+20%性能牺牲。”
- “决策树是天然可解释模型,但深度超过3层时解释性急剧下降。”
- “敏感性分析通过扰动输入检测模型稳定性,暴露过拟合或虚假相关。”
- “代理模型(Surrogate Model)用简单模型近似黑箱行为,如用逻辑回归解释神经网络。”
- “模型无关性(Model-Agnostic)是解释工具的核心优势,适用于任何机器学习算法。”
- “可解释性的黄金标准:领域专家能基于解释发现模型潜在错误。”
- “欧盟GDPR的‘解释权’法规,强制高风险AI系统必须提供决策解释。”
- “特征交互效应(Interaction Effects)解释需结合H统计量或条件PDP。”
- “全局解释展示模型整体逻辑,局部解释聚焦单样本决策,二者缺一不可。”
- “文本模型的解释工具(如LIME-SP)需处理词嵌入空间与离散token的映射。”
- “视觉解释的热力图(如Grad-CAM)通过梯度定位图像关键区域。”
- “可解释性的终极目标不是拆解模型,而是建立人机协作的信任基础。”