李沐【动手学深度学习 笔记】
我做完了李沐老师这套课程的笔记,笔记里有数据集、课件、代码、及运行成果,还添加了目录、补充常识点、代码注释、改正了代码报错情况,不用谢。Github在国内打开有点慢,有时会呈现打不开,电脑浏览器换个网速好点的WIFI,刷新几次就好了。
00 预告
01 课程放置
02 深度学习介绍
03 配置版本
04 数据操作、数据预措置
05 线性代数
06 矩阵计算
07 自动求导
08 线性回归、优化算法
09 Softmax回归、损掉函数、图片分类
10 多层感知机
11 模型选择、过拟合、欠拟合
12 权重衰退
13 丢弃法
14 数值不变性、模型初始化、激活函数
15 Kaggle房价预测
16 PyTorch神经网络基础
17 使用采办GPU
18预测房价竞赛总结
19 卷积层
20 卷积层里的填充和步幅
21 卷积层里的多输入多输出通道
22 池化层
23 经典神经网络LeNet
24 深度卷积神经网络AlexNet
25 使用块的网络VGG
26 网络中的网络NiN
27 合并行连接的网络GoogLeNet / Inception V3
28 批量归一化
29.1 残差神经网络ResNet
29.2 ResNet为什么能训练出1000层的模型
30 第二部门完结竞赛:图片分类
31 深度学习硬件CPU和GPU
32 深度学习硬件TPU和其他
33 单机多卡并行
34 多GPU训练实现
35 分布式训练
36 数据增广
37 微调
38 第二次竞赛
39 实战Kaggle比赛图像分类CIFAR10
40 实战Kaggle比赛狗的品种识别
41 物体检测和数据集
42 锚框
43 树叶分类竞赛技术总结
44 物体检测算法R-CNN、SSD、YOLO
45 SSD实现
46 语义分割和数据集
47.1 转置卷积
47.2 转置卷积是一种卷积
48 全连接卷积神经网络FCN
49 样式迁移
50 课程竞赛:牛仔行头检测
51 序列模型
52 文本预措置
53 语言模型
54 循环神经网络RNN
55 循环神经网络RNN的实现
56 门控循环单元GRU
57 长短期记忆网络LSTM
58 深层循环神经网络
59 双向循环神经网络
60 机器翻译数据集
61 编码器解码器架构
62 序列到序列学习seq2seq
63 束搜索
64 注意力机制
65 注意力分数
66 使用注意力机制的seq2seq
67 自注意力
68 Transformer
69 BERT预训练
70 BERT微调
71 方针检测竞赛总结
72 优化算法
73 课程总结和进阶学习
<hr/>视频讲解
[*]哔哩哔哩-李沐-动手学深度学习
全套笔记
[*]GitHub - AccumulateMore/CV:最全面的 深度学习 笔记
<hr/>”♥我的笔记,但愿对你有辅佐♥”
在知乎里养一只猫猫,路过的朋友可以摸摸它( 1 赞摸 1 次,哈哈哈 ) __ /> フ | _ _ l /` ミ_xノ / | / ヽ ノ │ | | | / ̄| | | | | ( ̄ヽ__ヽ_)__) \二つ 太强了 请问学长,你是直接接触的这套课程然后做的笔记还是说学了一些前置课程? [谢邀][谢邀]直接接触的李沐的课程边学边写的笔记,学之前也有机器学习、深度学习的基础[爱][爱]
页:
[1]