深度学习手册
前言
深度学习基础
线性神经网络
自动求导
线性回归
Fashion-MNIST数据集
训练图像分类
Softmax回归
多层感知机
多层感知机
正则化
Dropout
Batch Normalization
反向传播
激活函数
初始化
优化算法
深度学习中的优化挑战
梯度下降
动量法
RMSprop
Adam
学习率调度器
计算机视觉
卷积神经网络
卷积
Padding,Stride,Channels
Pooling
LeNet
AlexNet
VGG
GoogleNet
卷积层的批标准化
ResNet
目标检测
目标检测和边界框
标注和预测
目标检测数据集
SSD
语义分割
语义分割和数据集
转置卷积
全卷积网络
样式迁移
自然语言处理
循环神经网络
语言模型
语言模型数据集
循环神经网络
训练语言模型
GRU
LSTM
深度循环神经网络
双向循环神经网络
机器翻译
机器翻译数据集
编码器-解码器
训练机器翻译
序列到序列学习
注意力机制
注意力
注意力评分函数
多头注意力
位置编码
Transformer的其它组件
Transformer
自然语言处理预训练
Word2vec
GloVe
BERT
自然语言处理应用
情感分析
自然语言推理
使用BERT
tensorflow
基础知识
Keras顺序API
Keras函数式API
处理过拟合
优化算法
预训练+微调
调参
自定义
自定义层
自定义模型
自定义损失函数和指标
自定义激活函数、初始化、正则化和约束
自定义回调函数和学习率调度器
自定义训练循环
加载和预处理数据
CSV数据
TFRecord和Example
写入和读取TFRecord文件
预处理输入特征
部署
启动TensorFlow Serving
通过REST API查询
部署模型新的版本
.ipynb
.pdf
repository
open issue
Binder
自然语言处理预训练
¶
Word2vec
GloVe
BERT
Transformer
Word2vec