- 課時1 深度學習框架簡介
- 課時2 PyTorch功能演示
- 課時3 開發(fā)環(huán)境安裝(簡介)
- 課時4 簡單回歸問題-1
- 課時5 簡單回歸問題-2
- 課時6 回歸問題實戰(zhàn)
- 課時7 分類問題引入-1
- 課時8 分類問題引入-2
- 課時9 手寫數字識別初體驗-1
- 課時10 手寫數字識別初體驗-2
- 課時11 手寫數字識別初體驗-3
- 課時12 手寫數字識別初體驗-4
- 課時13 手寫數字識別初體驗-5
- 課時14 張量數據類型-1
- 課時15 張量數據類型-2
- 課時16 創(chuàng)建Tensor-1
- 課時17 創(chuàng)建Tensor-2
- 課時18 索引與切片-1
- 課時19 索引與切片-2
- 課時20 維度變換-1
- 課時21 維度變換-2
- 課時22 維度變換-3
- 課時23 維度變換-4
- 課時24 Broadcasting-1
- 課時25 Broadcasting-2
- 課時26 Broadcasting-3
- 課時27 合并與分割-1
- 課時28 合并與分割-2
- 課時29 數學運算-1
- 課時30 數學運算-2
- 課時31 屬性統(tǒng)計-1
- 課時32 屬性統(tǒng)計-2
- 課時33 高階操作
- 課時34 什么是梯度-1
- 課時35 什么是梯度-2
- 課時36 常見函數的梯度
- 課時37 激活函數與Loss的梯度-1
- 課時38 激活函數與Loss的梯度-2
- 課時39 激活函數與Loss的梯度-3
- 課時40 激活函數與Loss的梯度-4
- 課時41 感知機的梯度推導-1
- 課時42 感知機的梯度推導-2
- 課時43 鏈式法則
- 課時44 反向傳播算法-1
- 課時45 反向傳播算法-2
- 課時46 優(yōu)化問題實戰(zhàn)
- 課時47 Logistic Regression
- 課時48 交叉熵-1
- 課時49 交叉熵-2
- 課時50 多分類問題實戰(zhàn)
- 課時52 激活函數與GPU加速
- 課時53 MNIST測試實戰(zhàn)
- 課時54 Visdom可視化
- 課時55 過擬合與欠擬合
- 課時56 交叉驗證-1
- 課時57 交叉驗證-2
- 課時58 Regularization
- 課時59 動量與學習率衰減
- 課時60 Early stopping dropout等
- 課時61 什么是卷積-1
- 課時62 什么是卷積-2
- 課時63 卷積神經網絡-1
- 課時64 卷積神經網絡-2
- 課時65 卷積神經網絡-3
- 課時66 池化層與采樣
- 課時67 BatchNorm-1
- 課時68 BatchNorm-2
- 課時69 經典卷積網絡 LeNet5AlexNet VGG GoogLeNet-1
- 課時70 經典卷積網絡 LeNet5AlexNet VGG GoogLeNet-2
- 課時71 ResNet與DenseNet-1
- 課時72 ResNet與DenseNet-2
- 課時73 nn.Module模塊-1
- 課時74 nn.Module模塊-2
- 課時75 數據增強
- 課時76 CIFAR10數據集介紹
- 課時77 卷積神經網絡實戰(zhàn)-1
- 課時78 卷積神經網絡實戰(zhàn)-2
- 課時79 卷積神經網絡訓練
- 課時80 ResNet實戰(zhàn)-1
- 課時81 ResNet實戰(zhàn)-2
- 課時82 ResNet實戰(zhàn)-3
- 課時83 ResNet實戰(zhàn)-4
- 課時84 實戰(zhàn)小結
- 課時85 時間序列表示方法
- 課時86 RNN原理-1
- 課時87 RNN原理-2
- 課時88 RNN Layer使用-1
- 課時89 RNN Layer使用-2
- 課時90 時間序列預測實戰(zhàn)
- 課時91 梯度彌散與梯度爆炸
- 課時92 LSTM原理-1
- 課時93 LSTM原理-2
- 課時94 LSTM Layer使用
- 課時95 情感分類問題實戰(zhàn)
- 課時96 Pokemon數據集
- 課時97 數據預處理
- 課時98 自定義數據集實戰(zhàn)-1
- 課時99 自定義數據集實戰(zhàn)-2
- 課時100 自定義數據集實戰(zhàn)-3
- 課時101 自定義數據集實戰(zhàn)-4
- 課時102 自定義數據集實戰(zhàn)-5
- 課時103 自定義網絡
- 課時104 自定義網絡訓練與測試
- 課時105 自定義網絡實戰(zhàn)
- 課時106 遷移學習
- 課時107 遷移學習實戰(zhàn)
- 課時108 無監(jiān)督學習
- 課時109 Auto-Encoder原理
- 課時110 Auto-Encoder變種
- 課時111 Adversarial Auto-Encoder
- 課時112 變分Auto-Encoder引入
- 課時113 Reparameterization trick
- 課時114 變分自編碼器VAE
- 課時115 Auto-Encoder實戰(zhàn)-1
- 課時116 Auto-Encoder實戰(zhàn)-2
- 課時117 變分Auto-Encoder實戰(zhàn)-1
- 課時118 變分Auto-Encoder實戰(zhàn)-2
- 課時119 數據的分布
- 課時120 畫家的成長歷程
- 課時121 GAN原理
- 課時122 納什均衡-D
- 課時123 納什均衡-G
- 課時124 JS散度的缺陷
- 課時125 EM距離
- 課時126 WGAN與WGAN-GP
- 課時127 GAN實戰(zhàn)-GD實現
- 課時128 GAN實戰(zhàn)-網絡訓練
- 課時129 GAN實戰(zhàn)-網絡訓練魯棒性
- 課時130 WGAN-GP實戰(zhàn)
內容提要
《深度學習框架PyTorch:入門與實踐》從多維數組Tensor開始,循序漸進地帶領讀者了解PyTorch各方面的基礎知識。結合基礎知識和前沿研究,帶領讀者從零開始完成幾個經典有趣的深度學習小項目,包括GAN生成動漫頭像、AI濾鏡、AI寫詩等。《深度學習框架PyTorch:入門與實踐》沒有簡單機械地介紹各個函數接口的使用,而是嘗試分門別類、循序漸進地向讀者介紹PyTorch的知識,希望讀者對PyTorch有一個完整的認識。
《深度學習框架PyTorch:入門與實踐》內容由淺入深,無論是深度學習的初學者,還是第一次接觸PyTorch的研究人員,都能在學習本書的過程中快速掌握PyTorch。即使是有一定PyTorch使用經驗的用戶,也能夠從本書中獲得對PyTorch不一樣的理解。
目錄
1 PyTorch簡介
1.1 PyTorch的誕生
1.2 常見的深度學習框架簡介
1.2.1 Theano
1.2.2 TensorFlow
1.2.3 Keras
1.2.4 Caffe/Caffe2
1.2.5 MXNet
1.2.6 CNTK
1.2.7 其他框架
1.3 屬于動態(tài)圖的未來
1.4 為什么選擇PyTorch
1.5 星火燎原
1.6 fast.ai 放棄Keras+TensorFlow選擇PyTorch
2 快速入門
2.1 安裝與配置
2.1.1 安裝PyTorch
2.1.2 學習環(huán)境配置
2.2 PyTorch入門第一步
2.2.1 Tensor
2.2.2 Autograd:自動微分
2.2.3 神經網絡
2.2.4 小試牛刀:CIFAR-10分類
3 Tensor和autograd
3.1 Tensor
3.1.1 基礎操作
3.1.2 Tensor和Numpy
3.1.3 內部結構
3.1.4 其他有關Tensor的話題
3.1.5 小試牛刀:線性回歸
3.2 autograd
3.2.1 Variable
3.2.2 計算圖
3.2.3 擴展autograd
3.2.4 小試牛刀:用Variable實現線性回歸
4 神經網絡工具箱nn
4.1 nn.Module
4.2 常用的神經網絡層
4.2.1 圖像相關層
4.2.2 激活函數
4.2.3 循環(huán)神經網絡層
4.2.4 損失函數
4.3 優(yōu)化器
4.4 nn.functional
4.5 初始化策略
4.6 nn.Module深入分析
4.7 nn和autograd的關系
4.8 小試牛刀:用50行代碼搭建ResNet
5 PyTorch中常用的工具
5.1 數據處理
5.2 計算機視覺工具包:torchvision
5.3 可視化工具
5.3.1 Tensorboard
5.3.2 visdom
5.4 使用GPU加速:cuda
5.5 持久化
6 PyTorch實戰(zhàn)指南
6.1 編程實戰(zhàn):貓和狗二分類
6.1.1 比賽介紹
6.1.2 文件組織架構
6.1.3 關于__init__.py
6.1.4 數據加載
6.1.5 模型定義
6.1.6 工具函數
6.1.7 配置文件
6.1.8 main.py
6.1.9 使用
6.1.10 爭議
6.2 PyTorch Debug 指南
6.2.1 ipdb 介紹
6.2.2 在PyTorch中Debug
7 AI插畫師:生成對抗網絡
7.1 GAN的原理簡介
7.2 用GAN生成動漫頭像
7.3 實驗結果分析
8 AI藝術家:神經網絡風格遷移
8.1 風格遷移原理介紹
8.2 用PyTorch實現風格遷移
8.3 實驗結果分析
9 AI詩人:用RNN寫詩
9.1 自然語言處理的基礎知識
9.1.1 詞向量
9.1.2 RNN
9.2 CharRNN
9.3 用PyTorch實現CharRNN
9.4 實驗結果分析
10 Image Caption:讓神經網絡看圖講故事
10.1 圖像描述介紹
10.2 數據
10.2.1 數據介紹
10.2.2 圖像數據處理
10.2.3 數據加載
10.3 模型與訓練
10.4 實驗結果分析
11 展望與未來
11.1 PyTorch的局限與發(fā)展
11.2 使用建議
