
课程介绍

Applied Deep Learning 是目前全网知识点覆盖最全的深度学习课程之一,需要两个学期的学习时长,主要面向研究生(也很适合有概率、统计学、数值线性代数和优化知识储备的本科生),目标是让学生熟悉行业中采用的最先进的深度学习技术。

课程对于从深度学习诞生至今的各领域(深度学习模型结构研究、自然语言处理、计算机视觉、强化学习、图神经网络)典型模型,都有逐步的展开和讲解。跟随课程的学习,我们可以看到研究界的创新和思考过程,模型的迭代和优化过程,对于深度学习的各类模型和典型应用,有全面充分的理解。

深度学习每隔几个月就会见证一场小型革命的领域,因此课程学生需要保持对新知识的渴望,并课程学习结束时能够编写干净的代码。
课程使用的编程语言是 Python。熟悉 TensorFlow 和 PyTorch 是加分项但不要求,但是愿意在课程中努力学习和使用这两个框架是非常重要的。
课程主题
课程官网发布了课程主题,ShowMeAI 对其进行了翻译。
- Training Deep Neural Networks(训练深度神经网络)
- Computer Vision(计算机视觉)
- Image Classification(图像分类)
- Image Transformation(图像变换)
- Object Detection(目标检测)
- Face Recognition and Detection(人脸识别与检测)
- Video(视频)
- 3D(3D)
- Natural Language Processing(自然语言处理)
- Multimodal Learning(多模式学习)
- Generative Networks(生成网络)
- Advanced Topics(进阶话题)
- Speech & Music(演讲与音乐)
- Reinforcement Learning(强化学习)
- Graph Neural Networks(图神经网络)
- Recommender Systems(推荐系统)
- Computational Biology(计算生物学)
课程资料 | 下载

扫描上方图片二维码,关注公众号并回复关键字 🎯『APPLY-DL』,就可以获取整理完整的资料合辑啦!当然也可以点击 🎯 这里 查看更多课程的资料获取方式!


ShowMeAI 对课程资料进行了梳理,整理成这份完备且清晰的资料包:
- 📚 课件。PDF文件。覆盖所有视频章节。干货密度极高,每页课件都值得研究收藏~
课程视频 | B站
ShowMeAI 将视频上传至B站,并增加了中英双语字幕,以提供更加友好的学习体验。点击页面视频,可以进行预览。推荐前往 👆 B站 观看完整课程视频哦!
本门课程内容非常多!为方便大家检索(查找某主题的位置,请使用页面 Ctrl+F 关键字检索功能),依旧将完整清单放在这里:
课时编号 | 课时内容 |
---|---|
第1.1讲 | 深度学习概述 |
第1.2讲 | 梯度下降算法 |
第2.1讲 | 梯度下降算法 |
第2.2讲 | AlexNet |
第3.1讲 | 随机失活dropout |
第3.2讲 | Network in Network |
第4.1讲 | Network in Network |
第4.2讲 | VGG-16和VGG-19 |
第4.3讲 | GoogLeNet |
第5.1讲 | GoogLeNet |
第5.2讲 | 批标准化 |
第6.1讲 | 批标准化 |
第6.2讲 | Kaiming参数初始化 |
第7.1讲 | Kaiming参数初始化 |
第7.2讲 | Inception-V3 |
第8.1讲 | Inception-V3 |
第8.2讲 | resnet |
第9.1讲 | 恒等映射 |
第9.2讲 | 宽残差网络 |
第10.1讲 | ResNeXt |
第10.2讲 | DenseNet |
第10.3讲 | Inception-V4 |
第11.1讲 | 压缩与激活 |
第12.1讲 | Spatial Transformer Networks |
第13.1讲 | 胶囊网络 |
第14.1讲 | 小型神经网络 |
第14.2讲 | 知识蒸馏 |
第15.1讲 | 知识蒸馏 |
第15.2讲 | 深度压缩 |
第16.1讲 | 深度压缩 |
第17.1讲 | SqueezeNet |
第17.2讲 | XNOR网络 |
第18.1讲 | XNOR网络 |
第18.2讲 | MobileNets |
第19.1讲 | MobileNets |
第19.2讲 | Xception |
第19.3讲 | MobileNetV2 |
第19.4讲 | ShuffleNet |
第20.1讲 | NASNet |
第20.2讲 | AmoebaNet-A |
第21.1讲 | EfficientNet |
第21.2讲 | 对抗学习示例 |
第22.1讲 | 对抗学习示例 |
第22.2讲 | 快速梯度符号方法 |
第23.1讲 | Breaking Defensive蒸馏 |
第23.2讲 | 稳健优化 |
第24.1讲 | 稳健优化 |
第24.2讲 | 单像素攻击 |
第25.1讲 | 单像素攻击 |
第25.2讲 | CNN可视化与理解 |
第26.1讲 | LIME |
第26.2讲 | 类激活图 |
第27.1讲 | 类激活图 |
第27.2讲 | 有限样本表示性 |
第28.1讲 | 有限样本表示性 |
第28.2讲 | Grad-CAM |
第28.3讲 | 迁移学习 |
第29.1讲 | DeCAF |
第29.2讲 | 卷积神经网络特征解析 |
第29.3讲 | 全卷积网络 |
第30.1讲 | 全卷积网络 |
第30.2讲 | U-Net |
第30.3讲 | DeepLab |
第31.1讲 | DeepLab |
第31.2讲 | 扩张卷积 |
第32.1讲 | 扩张卷积 |
第32.2讲 | SegNet |
第32.3讲 | 金字塔场景解析网络 |
第32.4讲 | DeepLabv3+ |
第33.1讲 | 超分辨率卷积神经网络 |
第33.2讲 | Perceptual损失 |
第33.3讲 | 单图像超分辨率 |
第33.4讲 | 去噪卷积神经网络 |
第34.1讲 | 平均精度(mAP) |
第34.2讲 | R-CNN |
第35.1讲 | 空间金字塔池化 |
第35.2讲 | Fast R-CNN |
第36.1讲 | Faster R-CNN |
第36.2讲 | R-FCN |
第37.1讲 | 特征金字塔网络 |
第37.2讲 | Mask R-CNN |
第38.1讲 | OverFeat |
第38.2讲 | YOLO |
第39.1讲 | SSD |
第39.2讲 | YOLO9000 |
第40.1讲 | Focal Loss |
第40.2讲 | YOLOv3 |
第40.3讲 | 视频分类 |
第41.1讲 | 视频中的动作识别 |
第41.2讲 | 三维卷积网络 |
第41.3讲 | Inflated 3d ConvNet(I3D) |
第42.1讲 | 非局部神经网络 |
第42.2讲 | 组归一化 |
第43.1讲 | PointNet |
第43.2讲 | PointNet++ |
第43.3讲 | 动态图形卷积网络(DGCNN) |
第44.1讲 | Word2Vec |
第45.1讲 | Word2Vec |
第46.1讲 | Word2vec |
第46.2讲 | GloVe |
第47.1讲 | 子词模型 |
第48.1讲 | 递归深度模型 |
第48.2讲 | 用于句子分类的CNN |
第49.1讲 | 用于句子分类的CNN |
第49.2讲 | Doc2vec |
第49.3讲 | 基于CNNs的文本分类 |
第50.1讲 | FastText |
第50.2讲 | 层次注意力网络 |
第51.1讲 | 命名实体识别 |
第51.2讲 | ULMFIT |
第52.1讲 | 神经机器翻译 |
第52.2讲 | 序列到序列建模(seq2seq) |
第53.1讲 | 短语表征 |
第53.2讲 | Gated Recursive CNN |
第53.3讲 | 基于注意力的神经机器翻译 |
第54.1讲 | 基于注意力的神经机器翻译 |
第54.2讲 | 字节对编码(BPE) |
第55.1讲 | 谷歌神经机器翻译系统 |
第55.2讲 | 卷积序列到序列模型 |
第56.1讲 | Transformer |
第56.2讲 | Reformer |
第57.1讲 | ELMo |
第57.2讲 | GPT-1 |
第57.3讲 | BERT |
第58.1讲 | BERT |
第58.2讲 | GPT-2 |
第58.3讲 | ALBERT |
第58.4讲 | ALBERT |
第59.1讲 | Transformer-XL |
第59.2讲 | XLNet |
第60.1讲 | 跨语种语言模型 |
第60.2讲 | GPT-3 |
第60.3讲 | 视觉识别与描述 |
第61.1讲 | 视觉识别与描述 |
第61.2讲 | 看图说话 |
第61.3讲 | 视觉语义对齐 |
第62.1讲 | 视觉语义对齐 |
第62.2讲 | Show, Attend and Tell看图说话 |
第63.1讲 | Show, Attend and Tell看图说话 |
第63.2讲 | 层标准化 |
第63.3讲 | 视觉问答 |
第63.4讲 | DALL-E |
第64.1讲 | 变分自动编码器 |
第64.2讲 | 生成对抗网络 |
第64.3讲 | 条件GAN |
第65.1讲 | DCGANs |
第65.2讲 | Inception Score |
第65.3讲 | Vaes Versus GANs |
第66.1讲 | Inception Score |
第66.2讲 | InfoGAN |
第66.3讲 | 上下文编码器 |
第67.1讲 | 最小二乘GAN |
第67.2讲 | Pix2pix |
第67.3讲 | Cycle-Consistent GAN |
第67.4讲 | Wasserstein GAN |
第68.1讲 | Wasserstein GAN |
第68.2讲 | 基于GAN的单图像超分辨率变换 |
第68.3讲 | 梯度惩罚 |
第69.1讲 | 离散数据的GAN |
第69.2讲 | GAN的渐进学习 |
第69.3讲 | Frechet Inception Distance ( FID ) |
第70.1讲 | 谱归一化 |
第70.2讲 | Pix2pixHD |
第70.3讲 | BigGANs |
第71.1讲 | StyleGan |
第71.2讲 | 自注意力生成对抗网络 |
第71.3讲 | StarGAN |
第72.1讲 | Mel谱图与MFCCs |
第72.2讲 | CTC算法 |
第73.1讲 | 语音识别 |
第73.2讲 | GRU模型 |
第73.3讲 | 期望转录损失 |
第74.1讲 | CTC集束搜索 |
第74.2讲 | Deep Speech |
第74.3讲 | WaveNet |
第75.1讲 | WaveNet |
第75.2讲 | 长短时记忆 |
第75.3讲 | Deep Speech 2 |
第75.4讲 | SpecAugment |
第76.1讲 | Listen, Attend, and Spell |
第76.2讲 | Jasper & NovoGrad |
第76.3讲 | Wav2vec 2.0 |
第77.1讲 | 深度Q学习 |
第77.2讲 | 人体水平控制 |
第77.3讲 | 深确定性策略梯度 |
第78.1讲 | 深确定性策略梯度 |
第78.2讲 | 信赖域策略优化 |
第79.1讲 | 信赖域策略优化 |
第79.2讲 | AlphaGo |
第80.1讲 | 共轭梯度法 |
第80.2讲 | RL算法大全 |
第80.3讲 | A3C算法 |
第80.4讲 | 深度学习中的模型不确定性 |
第81.1讲 | 双Q学习 |
第81.2讲 | 自动驾驶汽车的端到端学习 |
第81.3讲 | 深层视觉运动策略 |
第82.1讲 | AlphaGo Zero |
第82.2讲 | AlphaZero |
第82.3讲 | 近端策略优化 |
第82.4讲 | Model-Agnostic Meta-Learning |
第83.1讲 | Model-Agnostic Meta-Learning |
第83.2讲 | Visual Serving |
第83.3讲 | Soft Actor-Critic算法 |
第84.1讲 | DeepWalk算法 |
第84.2讲 | LINE模型 |
第84.3讲 | node2vec |
第84.4讲 | 图卷积网络 |
第85.1讲 | 图卷积网络 |
第85.2讲 | 快速局部化光谱滤波 |
第85.3讲 | GraphsAGE |
第85.4讲 | 图注意力网络 |
第85.5讲 | 图同构网络 |
更多技术与课程清单 | 点击查看详细课程
