可解释的机器学习【纯文本】(ChristophMolner等;朱明超译)

书: https://pan.baidu.com/s/1XseSeFJwB_CgmZqmU5-_rQ?pwd=gb4u
笔记如下:

  1. “模型可解释性的本质是建立人类认知与机器决策之间的可信桥梁。”
  2. “黑箱模型的高性能不等于高可靠性,缺乏解释可能引发伦理与法律风险。”
  3. “可解释性两大范式:本质可解释模型(如线性回归)与事后解释方法(如SHAP)。”
  4. “LIME算法通过局部线性逼近,用可理解的简单模型解释复杂模型的单样本预测。”
  5. “SHAP值基于博弈论,将预测结果公平分配给每个特征,满足一致性公理。”
  6. “特征重要性仅显示贡献度,部分依赖图(PDP)能揭示特征与预测的单调性关系。”
  7. “反事实解释(Counterfactuals)回答关键问题:如何最小化改变输入以翻转预测结果?”
  8. “锚点解释(Anchors)提供‘如果满足某条件,则预测不变’的确定性规则。”
  9. “可解释性与准确性往往存在权衡,医疗领域需要80%解释性+20%性能牺牲。”
  10. “决策树是天然可解释模型,但深度超过3层时解释性急剧下降。”
  11. “敏感性分析通过扰动输入检测模型稳定性,暴露过拟合或虚假相关。”
  12. “代理模型(Surrogate Model)用简单模型近似黑箱行为,如用逻辑回归解释神经网络。”
  13. “模型无关性(Model-Agnostic)是解释工具的核心优势,适用于任何机器学习算法。”
  14. “可解释性的黄金标准:领域专家能基于解释发现模型潜在错误。”
  15. “欧盟GDPR的‘解释权’法规,强制高风险AI系统必须提供决策解释。”
  16. “特征交互效应(Interaction Effects)解释需结合H统计量或条件PDP。”
  17. “全局解释展示模型整体逻辑,局部解释聚焦单样本决策,二者缺一不可。”
  18. “文本模型的解释工具(如LIME-SP)需处理词嵌入空间与离散token的映射。”
  19. “视觉解释的热力图(如Grad-CAM)通过梯度定位图像关键区域。”
  20. “可解释性的终极目标不是拆解模型,而是建立人机协作的信任基础。”

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注