
深度学习中的矩阵求导基础【深度学习中的数学ep1】
18:04

FC层和LN层该如何求导?【深度学习中的数学ep2】
17:41

如何对简单的神经网络求导?【深度学习中的数学ep3】
17:03

深度学习优化基础:从泰勒展开到梯度下降法和牛顿法【深度学习中的数学ep4】
12:28

Lipschitz连续及其常量的定义讲解【深度学习中的数学ep5】
19:53

奇异值分解和线性代数回顾【深度学习中的数学ep6】
23:15

深度学习实战-SVD、Xavier初始化、Lipschitz常量仿真【深度学习中的数学ep7】
24:59

ResNet的数学分析【深度学习中的数学ep8】
22:31

Transformer主要模块从数学上如何解读?【深度学习中的数学ep9】
15:43

为什么Transformer会好于ResNet,从Lipschitz常量讲起【深度学习中的数学ep10】
24:32

深度学习中的凸优化(上)【深度学习中的数学ep11】
20:42

深度学习中的凸优化(下)【深度学习中的数学ep12】
11:24

混合精度讲解 (上)【深度学习中的数学ep13】
15:10

混合精度讲解(下)【深度学习中的数学ep14】
19:40

从SGD到AdamW - 优化器算法讲解(上) 【深度学习中的数学ep15】
29:09

优化器特性分析 - 优化器算法讲解(中)【深度学习中的数学ep16】
18:19

从Adam到AdamW - 优化器算法讲解(下)【深度学习中的数学ep17】
10:58

Activation和Residual Shortcut的Lipschitz常量分析【深度学习中的数学ep18】
14:12

归一化层该如何选择?【深度学习中的数学ep19】
12:05

自注意力机制解析-从Lipschitz常量的角度出发【深度学习中的数学ep20】【Self-Attention】
09:18

优化器要怎么调参调结构?- 模型优化指南(上)【深度学习中的数学ep21】
26:28

宏观理解深度学习优化-模型优化指南(下)【深度学习中的数学ep22】
22:38

简单聊聊大模型 【深度学习中的数学ep23】
09:56