系统入门深度学习,直击算法工程师|完结无秘

系统入门深度学习,直击算法工程师|完结无秘
系统入门深度学习,直击算法工程师|完结无秘 1

课程介绍(A000900):

想要成为一名优秀的深度学习工程师并不容易,一看就会,一用就废,已然成为很多人进军AI 领域的心魔,自以为理解了框架、算法,但遇到实际问题却仍不知道该怎么解决。本门课程将结合核心基础、算法模型设计和实用案例,由浅至深、由理论到实操,带你紧跟行业热点,系统入门深度学习,掌握解决实际问题的能力,轻松畅游AI时代!

文件目录:

系统入门深度学习,直击算法工程师完结无秘
│  ├─{1}–第1章初识深度学习
│  │      [1.3]–1-3神经网络&深度学习.mp4
│  │      [1.4]–1-4深度学习路线图1.mp4
│  │      [1.5]–1-5深度学习应用1.mp4
│  │      [1.6]–1-6本章总结1.mp4
│  │     
│  ├─{2}–第2章入门必修:单、多层感知机
│  │      [2.12]–2-12项目构建和模型训练(3).mp4
│  │      [2.13]–2-13项目构建和模型训练(4)1.mp4
│  │      [2.14]–2-14模型评估和选择1.mp4
│  │      [2.15]–2-15本章总结1.mp4
│  │      [2.1]–2-1本章内容介绍1.mp4
│  │      [2.2]–2-2深度学习实施的一般过程1.mp4
│  │      [2.3]–2-3逻辑回归1.mp4
│  │      [2.4]–2-4逻辑回归损失函数1.mp4
│  │      [2.5]–2-5逻辑回归示例1.mp4
│  │      [2.6]–2-6单层、多层感知机1.mp4
│  │      [2.7]–2-7pytorch构建单多层感知机1.mp4
│  │      [2.8]–2-8基于多层DNN假钞识别1.mp4
│  │      [2.9]–2-9数据集及特征分析1.mp4
│  │     
│  ├─{3}–第3章深度学习基础组件精讲
│  │      [3.3]–3-3正确的初始化模型参数.mp4
│  │      [3.4]–3-4激活函数选择1.mp4
│  │      [3.5]–3-5优化器选择1.mp4
│  │      [3.6]–3-6Normalization增强模型训练(上)1.mp4
│  │      [3.7]–3-7Normalization增强模型训练(下)1.mp4
│  │      [3.8]–3-8使用正则提升模型表现1.mp4
│  │      [3.9]–3-9本章总结1.mp4
│  │     
│  ├─{4}–第4章图像处理利器:卷积神经网络
│  │      [4.10]–4-10Vgg介绍及实现1.mp4
│  │      [4.11]–4-11图片的数据增广1.mp4
│  │      [4.12]–4-12手势识别应用来源和项目分析1.mp4
│  │      [4.13]–4-13模型设计1.mp4
│  │      [4.14]–4-14MoocTrialNet模型搭建(1)1.mp4
│  │      [4.15]–4-15MoocTrialNet模型搭建(2)1.mp4
│  │      [4.16]–4-16MoocTrialNet模型搭建(3)1.mp4
│  │      [4.17]–4-17MoocTrialNet模型搭建(4)1.mp4
│  │      [4.18]–4-18MoocTrialNet模型搭建(5)1.mp4
│  │      [4.19]–4-19模型评估和选择1.mp4
│  │      [4.20]–4-20本章总结1.mp4
│  │      [4.2]–4-2人类视觉和卷积神经网络关系1.mp4
│  │      [4.3]–4-3卷积神经网络的应用1.mp4
│  │      [4.4]–4-4卷积运算是怎样的过程(上)1.mp4
│  │      [4.5]–4-5卷积运算是怎样的过程(下)1.mp4
│  │      [4.6]–4-6用池化进行下采样1.mp4
│  │      [4.7]–4-7几种卷积的变体(上)1.mp4
│  │      [4.8]–4-8几种卷积的变体(下)1.mp4
│  │      [4.9]–4-9利用残差搭建更深的网络1.mp4
│  │     
│  ├─{5}–第5章为序列数据而生:RNN系列
│  │      [5.10]–5-10GRU实现唤醒词识别1.mp4
│  │      [5.11]–5-11基于双层、双向GRU的命令词识别模型搭建(1)1.mp4
│  │      [5.12]–5-12基于双层、双向GRU的命令词识别模型搭建(2)1.mp4
│  │      [5.13]–5-13基于双层、双向GRU的命令词识别模型搭建(3)1.mp4
│  │      [5.14]–5-14基于双层、双向GRU的命令词识别模型搭建(4)1.mp4
│  │      [5.15]–5-15基于双层、双向GRU的命令词识别模型搭建(5)1.mp4
│  │      [5.16]–5-16模型评估和选择1.mp4
│  │      [5.17]–5-17本章总结1.mp4
│  │      [5.1]–5-1本章内容介绍1.mp4
│  │      [5.2]–5-2什么是序列模型1.mp4
│  │      [5.3]–5-3不同的RNN应用类型:OvM,MvM1.mp4
│  │      [5.4]–5-4循环神经网络原理1.mp4
│  │      [5.5]–5-5用BPTT训练RNN1.mp4
│  │      [5.6]–5-6两个重要的变体:LSTMGRU(上)1.mp4
│  │      [5.7]–5-7两个重要的变体:LSTMGRU(下)1.mp4
│  │      [5.8]–5-8利用双向、多层RNN增强模型1.mp4
│  │      [5.9]–5-9典型应用范式:Encoder-Decoder1.mp4
│  │     
│  ├─源码
│  │  └─547
│  │      │  README1+11.md
│  │      │ 
│  │      ├─02-05
│  │      │      0205LogisticRegression1+11.py
│  │      │     
│  │      ├─02-07
│  │      │      0207PerceptronTorch1+11.py
│  │      │     
│  │      ├─02-08
│  │      │      config1+11.py
│  │      │      datasetbanknote1+11.py
│  │      │      inference1+11.py
│  │      │      loss1+11.py
│  │      │      model1+11.py
│  │      │      preprocess1+11.py
│  │      │      README1+11.md
│  │      │      trainer1+11.py
│  │      │      utils1+11.py
│  │      │     
│  │      ├─03-03
│  │      │      modelweightsinit1+11.py
│  │      │     
│  │      ├─03-04
│  │      │      activatefunction1+11.py
│  │      │     
│  │      ├─03-06
│  │      │      normalization1+11.py
│  │      │     
│  │      ├─03-07
│  │      │      regularizationdropout1+11.py
│  │      │      regularizationL1andL21+11.py
│  │      │     
│  │      ├─04-04
│  │      │      conv1+11.py
│  │      │      lena1+11.jpg
│  │      │     
│  │      ├─04-05
│  │      │      lena1+11.jpg
│  │      │      pooling1+11.py
│  │      │     
│  │      ├─04-06
│  │      │      parameternumber1+11.py
│  │      │     
│  │      ├─04-07
│  │      │      residual1+11.py
│  │      │     
│  │      ├─04-08
│  │      │      vgg111+11.py
│  │      │     
│  │      ├─04-09
│  │      │      lena1+11.jpg
│  │      │      transform1+11.py
│  │      │     
│  │      ├─04-10
│  │      │      config1+11.py
│  │      │      datasethg1+11.py
│  │      │      inference1+11.py
│  │      │      loss1+11.py
│  │      │      model1+11.py
│  │      │      preprocess1+11.py
│  │      │      trainer1+11.py
│  │      │      utils1+11.py
│  │      │     
│  │      ├─05-04
│  │      │      rnnbase1+11.py
│  │      │     
│  │      ├─05-06
│  │      │      lstmgru1+11.py
│  │      │     
│  │      ├─05-07
│  │      │      biRNNmultiRNN1+11.py
│  │      │     
│  │      └─05-09
│  │              config1+11.py
│  │              datasetkws1+11.py
│  │              inference1+11.py
│  │              loss1+11.py
│  │              model1+11.py
│  │              preprocess1+11.py
│  │              trainer1+11.py
│  │              utils1+11.py
│  │             
│  ├─第6章 深度学习新思路: GAN网络
│  │      6-1 本章内容介绍.mp4
│  │      6-10 用DCGAN生成人脸照片.mp4
│  │      6-11 超参和dataset编写.mp4
│  │      6-12 generator编写.mp4
│  │      6-13 discriminator编写.mp4
│  │      6-14 trainer 编写(1).mp4
│  │      6-15 trainer 编写(2).mp4
│  │      6-16 trainer 编写(3).mp4
│  │      6-17 trainer 编写(4).mp4
│  │      6-18 怎么检查GAN的训练过程?.mp4
│  │      6-19 本章总结.mp4
│  │      6-2 什么是生成式模型?.mp4
│  │      6-3 GAN的原理(上).mp4
│  │      6-4 GAN的原理(下).mp4
│  │      6-5 GAN的一些变体之:CycleGAN.mp4
│  │      6-6 GAN的一些变体之:StyleGAN(上).mp4
│  │      6-7 GAN的一些变体之:StyleGAN(下).mp4
│  │      6-8 GAN的一些变体之:DCGAN.mp4
│  │      6-9 GAN的一些变体之:text-to-image.mp4
│  │     
│  ├─第7章 赋予模型认知能力:注意力机制
│  │      7-1 本章内容介绍.mp4
│  │      7-10 model结构和位置编码.mp4
│  │      7-11 encoder.mp4
│  │      7-12 Multi-head attention(上).mp4
│  │      7-13 Multi-head attention(下).mp4
│  │      7-14 Pointwise FeedForward.mp4
│  │      7-15 decoder.mp4
│  │      7-16 transformer(上).mp4
│  │      7-17 transformer(下).mp4
│  │      7-18 trainer脚本编写.mp4
│  │      7-19 infer推理函数编写.mp4
│  │      7-2 什么是注意力机制?.mp4
│  │      7-20 inference和attention map展示(上).mp4
│  │      7-21 inference和attention map展示(下).mp4
│  │      7-22 本章总结.mp4
│  │      7-3 注意力机制的一般性原理.mp4
│  │      7-4 几种典型的注意力机制 hard、soft、local attention.mp4
│  │      7-5 自注意力机制:self-attention.mp4
│  │      7-6 Transformer.mp4
│  │      7-7 用Transformer实现G2P(上).mp4
│  │      7-8 用Transformer实现G2P(下).mp4
│  │      7-9 g2p dataset 编写.mp4
│  │     
│  ├─第8章 数据不够怎么办?迁移学习来帮忙
│  │      8-1 本章内容介绍.mp4
│  │      8-2 什么是迁移学习.mp4
│  │      8-3 迁移学习分类.mp4
│  │      8-4 怎么实施迁移学习?.mp4
│  │      8-5 基于ResNet迁移学习的姿势识别.mp4
│  │      8-6 工程代码(上).mp4
│  │      8-7 工程代码(下).mp4
│  │      8-8 inference.mp4
│  │      8-9 本章总结.mp4
│  │     
│  └─第9章 深度学习新范式:半监督学习
│          9-1 本章内容介绍.mp4
│          9-10 utils编写(3).mp4
│          9-11 utils编写(4).mp4
│          9-12 model编写.mp4
│          9-13 loss 编写.mp4
│          9-14 trainer 编写(1).mp4
│          9-15 trainer 编写(2).mp4
│          9-16 trainer 编写(3).mp4
│          9-17 trainer 编写(4).mp4
│          9-18 本章总结.mp4
│          9-2 半监督学习是什么?.mp4
│          9-3 半监督学习能解决什么问题?.mp4
│          9-4 几种典型的半监督学习方法(上).mp4
│          9-5 几种典型的半监督学习方法(下).mp4
│          9-6 在Cifar10上实现MixMatch半监督学习-论文拆解.mp4
│          9-7 超参和dataset.mp4
│          9-8 utils编写(1).mp4
│          9-9 utils编写(2).mp4

本站所有资源均来自网络,版权归原作者所有,本站仅提供收集与推荐,若侵犯到您的权益,请【给我们反馈】,我们将在24小时内处理!

下载权限

查看
  • 免费下载
    评论并刷新后下载
    登录后下载

查看演示

  • {{attr.name}}:
您当前的等级为
登录后免费下载登录 小黑屋反思中,不准下载! 评论后刷新页面下载评论 支付以后下载 请先登录 您今天的下载次数(次)用完了,请明天再来 支付积分以后下载立即支付 支付以后下载立即支付 您当前的用户组不允许下载升级会员
您已获得下载权限 您可以每天下载资源次,今日剩余

给TA打赏
共{{data.count}}人
人已打赏
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索