您现在的位置是:课程

人工智能:深度学习入门到精通实战

2023-11-04 17:37课程 人已围观



第一章:深度学习基础-深度学习简介
01.1-前置知识
01.2-传统编程与数据编程
01.3-深度学习起源
01.4-深度学习崛起与发展
01.5-深度学习成功案例
01.6-深度学习特点

第二章:深度学习基础-Python基础
02.1-PyTorch介绍与环境配置
02.2-数据操作与创建Tensor
02.3-算术操作、索引与改变形状
02.4-线性代数、广播机制与内存开销
02.5-Tensor和NumPy相互转换与Tensor on GPU
02.6-实验01-创建和使用Tensor-1
02.7-实验01-创建和使用Tensor-2
02.8-梯度下降
02.9-实验02-梯度下降-1
02.10-实验02-梯度下降-2
02.11-自动求梯度概念
02.12-自动求梯度实例
02.13-实验03-自动求梯度-1
02.14-实验03-自动求梯度-2

第三章:深度学习基础-线性回归
03.1-线性回归讲解
03.2-线性回归实例
03.3-实验04-从零实现线性回归-1
03.4-实验04-从零实现线性回归-2
03.5-实验05-线性回归的简洁实现-1
03.6-实验05-线性回归的简洁实现-2

第四章:深度学习基础-softmax回归
04.1-softmax回归
04.2-实验06-FashionMNIST
04.3-实验07-从零实现Softmax回归-1
04.4-实验07-从零实现Softmax回归-2
04.5-实验08-softmax回归的简洁实现

第五章:深度学习基础-多层感知机
05.1-感知机
05.2-多层感知机
05.3-多层感知机与神经网络
05.4-激活函数
05.5-正向传播
05.6-反向传播
05.7-正向传播和反向传播
05.8-批大小
05.9-实验09-从零实现MLP
05.10-实验10-MLP的简洁实现

第六章:深度学习基础-模型选择、欠拟合和过拟合
06.1-训练误差和泛化误差
06.2-模型选择
06.3-欠拟合和过拟合
06.4-权重衰减
06.5-丢弃法
06.6-实验11-多项式函数拟合实验
06.7-实验12-高维线性回归实验-1
06.8-实验12-高维线性回归实验-2
06.9-实验13-Dropout

第七章:深度学习基础-数值稳定性和模型初始化
07.1-数值稳定性和模型初始化-1
07.2-数值稳定性和模型初始化-2
07.3-实验14-房价预测案例-1
07.4-实验14-房价预测案例-2
07.5-实验14-房价预测案例-3

第八章:深度学习计算-模型构造
08.1-模型构造-1
08.2-模型构造-2
08.3-模型构造-3
08.4-实验15-模型构造-1
08.5-实验15-模型构造-2

第九章:深度学习计算-模型参数的访问、初始化和共享
09.1-模型参数的访问
09.2-模型参数初始化和共享
09.3-实验16-模型参数-1
09.4-实验16-模型参数-2

第十章:深度学习计算-自定义层与读取和储存
10.1-不含模型参数的自定义层
10.2-含模型参数的自定义层
10.3-实验17-自定义层
10.4-读取和储存
10.5-GPU计算
10.6-实验18-读取和储存

第十一章:卷积神经网络
11.01-卷积神经网络
11.02-卷积神经网络的组
11.03-图像分类的局限性
11.04-二维卷积层与卷积层
11.05-卷积在图像中的直观作用
11.06-实验19-二维卷积层
11.07-填充与步幅
11.08-卷积过程
11.09-卷积层参数-1
11.10-卷积层参数-2
11.11-实验20-Pad和Stride
11.12-多输入和输出通道
11.13-实验21-多通道
11.14-池化层
11.15-实验22-池化层

第十二章:经典网络
12.01-卷积神经网络
12.02-实验23-LeNet模型
12.03-深度卷积神经网络
12.04-实验24-AlexNet模型
12.05-使用重复元素的网络
12.06-实验25-VGG模型
12.07-网络中的网络
12.08-实验26-NiN模型
12.09-含并行连接的网络
12.10-实验27-GoogLeNet模型
12.11-批量归一化-1
12.12-批量归一化-2
12.13-实验28-批量归一化
12.14-残差网络
12.15-实验29-残差网络
12.16-稠密连接网络
12.17-实验30-稠密连接网络

第十三章:循环神经网络
13.01-语言模型和计算
13.02-n元语法
13.03-RNN和RNNs
13.04-标准RNN向前输出流程和语言模型应用
13.05-vector-to-sequence结构
13.06-实验31-语言模型数据集-1
13.07-实验31-语言模型数据集-2
13.08-实验32-从零实现循环神经网络-1
13.09-实验32-从零实现循环神经网络-2
13.10-实验32-从零实现循环神经网络-3
13.11-实验32-从零实现循环神经网络-4
13.12-实验33-简洁实现循环神经网络-1
13.13-实验33-简洁实现循环神经网络-2

第十四章:RNN进阶
14.01-通过时间反向传播-1
14.02-通过时间反向传播-2
14.03-长短期记忆-1
14.04-长短期记忆-2
14.05-实验34-长短期记忆网络-1
14.06-实验34-长短期记忆网络-2
14.07-门控循环单元
14.08-RNN扩展模型
14.09-实验35-门控循环单元

第十五章:优化算法
15.01-优化与深度学习
15.02-局部最小值和鞍点
15.03-提高深度学习的泛化能力
15.04-实验36-小批量梯度下降-1
15.05-实验36-小批量梯度下降-2
15.06-动量法-1
15.07-动量法-2
15.08-实验37-动量法
15.09-AdaGrad算法与特点
15.10-实验38-AdaGrad算法
15.11-RMSrop算法
15.12-实验39-RMSProp算法
15.13-AdaDelta算法
15.14-实验40-AdaDelta算法
15.15-Adam算法
15.16-实验41-Adam算法
15.17-不用二阶优化讲解与超参数

第十六章:计算机视觉
16.01-图像增广与挑战
16.02-翻转、裁剪、变化颜色与叠加
16.03-实验42-图像增广-1
16.04-实验42-图像增广-2
16.05-微调
16.06-迁移学习
16.07-实验43-微调-1
16.08-实验43-微调-2
16.09-目标检测
16.10-边界框
16.11-实验44-边界框
16.12-锚框与生成多个锚框
16.13-交并比
16.14-实验45-生成锚框-1
16.15-实验45-生成锚框-2
16.16-标注训练集的锚框-1
16.17-标注训练集的锚框-2
16.18-实验46-标注训练集的锚框-1
16.19-实验46-标注训练集的锚框-2
16.20-实验46-标注训练集的锚框-3
16.21-输出预测边界框
16.22-实验47-输出预测边界框-1
16.23-实验47-输出预测边界框-2
16.24-多尺度目标检测
16.25-实验48-多尺度目标检测
16.26-目标检测算法分类
16.27-SSD与模型设计
16.28-预测层
16.29-损失函数
16.30-SSD预测
16.31-实验49-目标检测数据集
16.32-实验50-SSD目标检测-1
16.33-实验50-SSD目标检测-2
16.34-实验50-SSD目标检测-3
16.35-实验50-SSD目标检测-4
16.36-实验50-SSD目标检测-5
16.37-实验50-SSD目标检测-6

第十七章:自然语言处理
17.01-词嵌入和词向量
17.02-神经网络模型
17.03-跳字模型
17.04-训练跳字模型
17.05-连续词袋模型
17.06-负采样
17.07-层序softmax
17.08-子词嵌入
17.09-Fasttext模型
17.10-全局向量的词嵌入
17.11-实验51-word2vec之数据预处理-1
17.12-实验51-word2vec之数据预处理-2
17.13-实验52-word2vec之负采样-1
17.14-实验52-word2vec之负采样-2
17.15-实验53-word2vec之模型构建-1
17.16-实验53-word2vec之模型构建-2
17.17-实验54-求近义词和类比词-1
17.18-实验54-求近义词和类比词-2
17.19-实验55-文本情感分类RNN-1
17.20-实验55-文本情感分类RNN-2
17.21-实验55-文本情感分类RNN-3
17.22-实验55-文本情感分类RNN-4
17.23-TextCNN
17.24-TextCNN流程
17.25-实验56-文本情感分类textCNN-1
17.26-实验56-文本情感分类textCNN-2
17.27-Seq2Seq的历史与网络架构
17.28-Seq2Seq的应用与存在的问题
17.29-Attention机制与Bucket机制
17.30-实验57-机器翻译之模型构建-1
17.31-实验57-机器翻译之模型构建-2
17.32-实验57-机器翻译之模型构建-3
17.33-实验58-机器翻译之训练评估-1
17.34-实验58-机器翻译之训练评估-2
17.35-实验58-机器翻译之训练评估-3

-->

站点信息

  • 文章统计篇文章