
书: https://pan.baidu.com/s/1XseSeFJwB_CgmZqmU5-_rQ?pwd=gb4u
笔记如下:
- “机器学习的目标是从数据中学习规律,并用于预测或决策,而非依赖显式编程。”
- “监督学习的本质是学习输入到输出的映射关系,关键在于损失函数的设计与优化。”
- “梯度下降是机器学习的‘引擎’,通过迭代调整参数以最小化损失函数。”
- “过拟合是模型过度记忆训练数据细节,而泛化能力才是衡量模型优劣的关键。”
- “正则化(L1/L2)通过约束模型复杂度,防止过拟合,提升泛化性能。”
- “交叉验证是评估模型泛化能力的金标准,避免因数据划分偏差导致误判。”
- “特征工程决定模型上限,算法选择决定逼近上限的速度。”
- “决策树通过信息增益或基尼指数划分特征,直观但易过拟合。”
- “支持向量机(SVM)通过最大化间隔实现分类,核技巧使其能处理非线性问题。”
- “神经网络通过多层非线性变换组合,具备逼近任意复杂函数的能力。”
- “反向传播是训练神经网络的基石,链式法则高效计算梯度。”
- “卷积神经网络(CNN)的局部连接与权重共享,使其成为图像处理的王者。”
- “循环神经网络(RNN)的时序建模能力,使其擅长处理序列数据。”
- “注意力机制让模型动态聚焦关键信息,成为Transformer架构的核心。”
- “无监督学习旨在发现数据内在结构,聚类与降维是两大经典任务。”
- “主成分分析(PCA)通过正交变换降维,保留最大方差信息。”
- “集成学习(如随机森林、XGBoost)通过组合弱学习器,显著提升预测精度。”
- “贝叶斯方法将先验知识与观测数据结合,提供概率化推断框架。”
- “强化学习通过试错与奖励机制,让模型在动态环境中学会最优策略。”
- “机器学习的终极挑战不是算法,而是数据质量、计算效率与可解释性的平衡。”