《2021PyTorch深度学习实战》价值1439元,九天与菜菜联合打造。使用PyTorch新兴技术框架快速、高效,0基础入门深度学习,常用神经网络模型全领域覆盖。课程60+小时精录课程0基础入门,五大课程模块,全面覆盖深度学习基础、计算机视觉(CV)、自然语言处理(NLP)以及深度学习前沿应用(包括强化学习、对抗网络以及图神经网络) PyTorch+Kaggle,重在实践,学练一体。
全面采用新兴深度学习技术框架PyTorch,门槛更低效率更高,丰富案例实操以实际需求出发,着重培养深度学习领域所需的工程能力,实现从理论到生产的实践过程。
会员路径:0000-139
课程目录:
.........................
73_16.17 ResNet的复现 (3):完整的残差网络.mp4
1.08G
72_16.17 ResNet的复现 (2) :卷积块、残差块、瓶颈架构.mp4
1G
71_16.17 ResNet的复现 (1) :架构中的陷阱.mp4
461.9M
70_16.16 残差网络:思想与具体架构.mp4
554.1M
69_16.15 GoogLeNet的复现.mp4
1008.9M
68_16.14 GoogLeNet:思想与具体架构.mp4
739.9M
67_1613全局平均池化,NiN网络的复现.mp4
86.2M
66_16.12全连接层的参数,用nn. Sequential复现VGG16.mp4
103.1M
65_16.11分组卷积与深度可分离卷积.mp4
67.7M
64_1610卷积层的参数量计算,1x1卷积核.mp4
64.7M
63_16.9平移不变性.mp4
101.4M
62_168感受野(下)_膨胀卷积,计算感受野大小.mp4
101.4M
61_168感受野(上)_定义与性质.mp4
96.9M
60_167如何拓展网络深度_vGG架构.mp4
91.6M
59_16.6复现经典架构(2)_ Alexnet.mp4
117.6M
58_166复现经典架构(1)_ Lenet5.mp4
64.3M
57_16.5在 Pytorch中实现卷积网络(下)_池化层,BN与Dropout.mp4
76.9M
56_16.5在 Pytorch中实现卷积网络(中)_步长与填充.mp4
119.3M
55_16.5在 Pytorch中实现卷积网络(上)_卷积核、输入通道与特征图.mp4
74.7M
54_164卷积遇见深度学习.mp4
47.1M
53_163卷积操作与边缘检测.mp4
63.6M
52_162图像的基本操作.mp4
117M
51_16.1配置环境,计算机视觉行业综述.mp4
91.2M
50_152学习率调度在 Pytorch中的实现方法.mp4
147.5M
49_15.1学习率调度基本概念与手动实现方法.mp4
152M
48_14.3 Batchnormalization综合调参实战.mp4
161.7M
47_14.2 Batch Normalization在 Pytorch中的实现.mp4
205.4M
46_14.1数据归一化与 Batchnormalization基础理论.mp4
211.7M
45_13.5 Xavier方法与 kaiming方法(HE初始化).mp4
200.5M
44_13.4 Deadreluproblen与学习率优化.mp4
130.9M
43_13.3梯度不平稳性与 Glorot条件(3).mp4
87.1M
42_13.3梯度不平稳性与 Glorot条件(2).mp4
81M
41_13.3梯度不平稳性与 Glorot条件(1).mp4
108.7M
40_13【加餐】损失函数的随机创建现象详解.mp4
62.6M
39_13.2模型拟合度概念介绍与欠拟合模型的结构调整策略.mp4
237.5M
38_13.1深度学习建模目标与性能评估理论.mp4
202.4M
37_125 softmax回归建模实验.mp4
168.1M
36_124逻辑回归建模实验.mp4
129.2M
35_12.3线性回归建模实验.mp4
104.3M
34_122可视化工具 Tensorboard的安装与使用.mp4
72.5M
33_12.1深度学习建模实验中数据集生成函数的创建与使用.mp4
217.2M
32_12.0深度学习基础网络手动搭建与快速实现.mp4
36.4M
31_11.5在 Fashion-MNST上实现完整的神经网络(下).mp4
145.9M
30_11.5在 Fashion-MNST数据集上实现完整的神经网络(上).mp4
73.9M
29_11.4开始迭代_ batch与 epochs.mp4
93.6M
28_11.3走出第一步_动量法 Momentum.mp4
108.1M
27_112(2)反向传播的实现.mp4
62.5M
26_112(1)反向传播的原理.mp4
83.2M
25_11.1梯度下降中的两个关键问题.mp4
92.9M
24_10.3多分类交叉熵的原理与实现.mp4
96.7M
23_10.2二分类交叉熵的原理与实现.mp4
59.1M
22_10.15sE与二分类交叉熵损失.mp4
103.7M
21_9.5从0实现深度神经网络的正向传播.mp4
155.2M
20_9.3&94层与激活函数.mp4
51.5M
19_92黑箱_深度神经网络的不可解释性.mp4
73.7M
18_9.1从异或门问题认识多层神经网结.mp4
119.9M
17_8.5多分类神经网络.mp4
78.4M
16_8.4 torch. nn. functiona实现单层二分类网络的正向传播.mp4
33.5M
15_8.3二分类神经网络的原理与实现.mp4
79.5M
14_8.2 torch. nn. Linear实现单层回归网络的正向传播.mp4
47.1M
13_8.1单层回归神经网络& Tensor新手避坑指南.mp4
115M
12_7.3深入理解 Pytorch框架.mp4
57.4M
11_7.2机器学习中的基本概念.mp4
96.1M
10_7.1神经网络的诞生与发展.mp4
86.4M
09_6动态计算图与梯度下降入门.mp4
203.5M
08_5基本优化方法与最小二乘法.mp4
223M
07_4张量的线性代数运算.mp4
164.6M
06_3张量的广播和科学运算.mp4
128.7M
05_2张量的索引、分片、合并及维度调整.mp4
128.1M
04_1张量的创建与常用方法.mp4
160.6M
03_0.3 Pytorch安装与配置(GPU版本).mp4
58M
02_02 Torch安装与部署(CPU版本).mp4
38.8M
01_0.1GPU购买与GPU白嫖指南.mp4
66.4M