TensorFlow深度学习:深入理解人工智能算法设计(龙良曲)

书: https://pan.baidu.com/s/1o53U8DJYBlzPKes4X47C8Q?pwd=ymj8
笔记如下:

  1. “深度学习的本质是‘用层次化的神经网络逼近复杂函数’,激活函数(如ReLU)引入非线性。”
  2. “TensorFlow的计算图(Graph)模式:定义静态计算流程,tf.function自动转换为高效图运算。”
  3. “张量(Tensor)是多维数组的抽象,tf.constant创建常量,tf.Variable管理可训练参数。”
  4. “梯度下降的核心:tf.GradientTape()自动记录前向计算,tape.gradient()反向传播求导。”
  5. tf.keras.Sequential快速堆叠模型,Functional API(输入输出显式连接)支持复杂拓扑。”
  6. “卷积神经网络(CNN)的三大特性:局部感知、权重共享、池化降维,tf.keras.layers.Conv2D实现。”
  7. “循环神经网络(RNN)的tf.keras.layers.LSTM解决长程依赖,return_sequences控制输出序列。”
  8. “注意力机制(Attention)的tf.keras.layers.MultiHeadAttention动态加权关键信息,提升Seq2Seq性能。”
  9. “损失函数选择:分类用交叉熵(tf.keras.losses.CategoricalCrossentropy),回归用MSE。”
  10. “优化器调参:Adam自适应学习率,tf.keras.optimizers.schedules实现学习率衰减。”
  11. “数据管道(tf.data.Dataset)的map预处理、shuffle打乱、batch分批,提升GPU利用率。”
  12. “过拟合对策:Dropout随机失活神经元,L2正则化惩罚大权重,EarlyStopping监控验证集。”
  13. “模型保存与部署:model.save()导出H5格式,tf.saved_model生成PB文件适配TF Serving。”
  14. “分布式训练:tf.distribute.MirroredStrategy单机多卡,MultiWorkerMirroredStrategy多机并行。”
  15. “混合精度训练:tf.keras.mixed_precision组合FP16和FP32,加速计算并节省显存。”
  16. “自定义层:继承tf.keras.layers.Layer重写call()build()初始化可训练参数。”
  17. tf.debugging检查张量值,tf.profiler定位性能瓶颈(如GPU利用率低)。”
  18. “生成对抗网络(GAN)的博弈训练:判别器(D)和生成器(G)交替优化。”
  19. “强化学习集成:tf_agents库实现DQN、PPO等算法,EnvironmentAgent分离设计。”
  20. “算法设计心法:‘理解数学原理(如梯度消失)比调参更重要;小数据集先过拟合,再正则化’。”

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注