
书: https://pan.baidu.com/s/1o53U8DJYBlzPKes4X47C8Q?pwd=ymj8
笔记如下:
- “深度学习的本质是‘用层次化的神经网络逼近复杂函数’,激活函数(如ReLU)引入非线性。”
- “TensorFlow的计算图(Graph)模式:定义静态计算流程,
tf.function
自动转换为高效图运算。” - “张量(Tensor)是多维数组的抽象,
tf.constant
创建常量,tf.Variable
管理可训练参数。” - “梯度下降的核心:
tf.GradientTape()
自动记录前向计算,tape.gradient()
反向传播求导。” - “
tf.keras.Sequential
快速堆叠模型,Functional API
(输入输出显式连接)支持复杂拓扑。” - “卷积神经网络(CNN)的三大特性:局部感知、权重共享、池化降维,
tf.keras.layers.Conv2D
实现。” - “循环神经网络(RNN)的
tf.keras.layers.LSTM
解决长程依赖,return_sequences
控制输出序列。” - “注意力机制(Attention)的
tf.keras.layers.MultiHeadAttention
动态加权关键信息,提升Seq2Seq性能。” - “损失函数选择:分类用交叉熵(
tf.keras.losses.CategoricalCrossentropy
),回归用MSE。” - “优化器调参:
Adam
自适应学习率,tf.keras.optimizers.schedules
实现学习率衰减。” - “数据管道(
tf.data.Dataset
)的map
预处理、shuffle
打乱、batch
分批,提升GPU利用率。” - “过拟合对策:
Dropout
随机失活神经元,L2正则化
惩罚大权重,EarlyStopping
监控验证集。” - “模型保存与部署:
model.save()
导出H5格式,tf.saved_model
生成PB文件适配TF Serving。” - “分布式训练:
tf.distribute.MirroredStrategy
单机多卡,MultiWorkerMirroredStrategy
多机并行。” - “混合精度训练:
tf.keras.mixed_precision
组合FP16和FP32,加速计算并节省显存。” - “自定义层:继承
tf.keras.layers.Layer
重写call()
,build()
初始化可训练参数。” - “
tf.debugging
检查张量值,tf.profiler
定位性能瓶颈(如GPU利用率低)。” - “生成对抗网络(GAN)的博弈训练:判别器(
D
)和生成器(G
)交替优化。” - “强化学习集成:
tf_agents
库实现DQN、PPO等算法,Environment
和Agent
分离设计。” - “算法设计心法:‘理解数学原理(如梯度消失)比调参更重要;小数据集先过拟合,再正则化’。”