- 課時(shí)1 深度學(xué)習(xí)框架簡介
- 課時(shí)2 PyTorch功能演示
- 課時(shí)3 開發(fā)環(huán)境安裝(簡介)
- 課時(shí)4 簡單回歸問題-1
- 課時(shí)5 簡單回歸問題-2
- 課時(shí)6 回歸問題實(shí)戰(zhàn)
- 課時(shí)7 分類問題引入-1
- 課時(shí)8 分類問題引入-2
- 課時(shí)9 手寫數(shù)字識(shí)別初體驗(yàn)-1
- 課時(shí)10 手寫數(shù)字識(shí)別初體驗(yàn)-2
- 課時(shí)11 手寫數(shù)字識(shí)別初體驗(yàn)-3
- 課時(shí)12 手寫數(shù)字識(shí)別初體驗(yàn)-4
- 課時(shí)13 手寫數(shù)字識(shí)別初體驗(yàn)-5
- 課時(shí)14 張量數(shù)據(jù)類型-1
- 課時(shí)15 張量數(shù)據(jù)類型-2
- 課時(shí)16 創(chuàng)建Tensor-1
- 課時(shí)17 創(chuàng)建Tensor-2
- 課時(shí)18 索引與切片-1
- 課時(shí)19 索引與切片-2
- 課時(shí)20 維度變換-1
- 課時(shí)21 維度變換-2
- 課時(shí)22 維度變換-3
- 課時(shí)23 維度變換-4
- 課時(shí)24 Broadcasting-1
- 課時(shí)25 Broadcasting-2
- 課時(shí)26 Broadcasting-3
- 課時(shí)27 合并與分割-1
- 課時(shí)28 合并與分割-2
- 課時(shí)29 數(shù)學(xué)運(yùn)算-1
- 課時(shí)30 數(shù)學(xué)運(yùn)算-2
- 課時(shí)31 屬性統(tǒng)計(jì)-1
- 課時(shí)32 屬性統(tǒng)計(jì)-2
- 課時(shí)33 高階操作
- 課時(shí)34 什么是梯度-1
- 課時(shí)35 什么是梯度-2
- 課時(shí)36 常見函數(shù)的梯度
- 課時(shí)37 激活函數(shù)與Loss的梯度-1
- 課時(shí)38 激活函數(shù)與Loss的梯度-2
- 課時(shí)39 激活函數(shù)與Loss的梯度-3
- 課時(shí)40 激活函數(shù)與Loss的梯度-4
- 課時(shí)41 感知機(jī)的梯度推導(dǎo)-1
- 課時(shí)42 感知機(jī)的梯度推導(dǎo)-2
- 課時(shí)43 鏈?zhǔn)椒▌t
- 課時(shí)44 反向傳播算法-1
- 課時(shí)45 反向傳播算法-2
- 課時(shí)47 Logistic Regression
- 課時(shí)48 交叉熵-1
- 課時(shí)49 交叉熵-2
- 課時(shí)50 多分類問題實(shí)戰(zhàn)
- 課時(shí)52 激活函數(shù)與GPU加速
- 課時(shí)53 MNIST測試實(shí)戰(zhàn)
- 課時(shí)54 Visdom可視化
- 課時(shí)55 過擬合與欠擬合
- 課時(shí)56 交叉驗(yàn)證-1
- 課時(shí)57 交叉驗(yàn)證-2
- 課時(shí)58 Regularization
- 課時(shí)59 動(dòng)量與學(xué)習(xí)率衰減
- 課時(shí)60 Early stopping dropout等
- 課時(shí)61 什么是卷積-1
- 課時(shí)62 什么是卷積-2
- 課時(shí)63 卷積神經(jīng)網(wǎng)絡(luò)-1
- 課時(shí)64 卷積神經(jīng)網(wǎng)絡(luò)-2
- 課時(shí)65 卷積神經(jīng)網(wǎng)絡(luò)-3
- 課時(shí)66 池化層與采樣
- 課時(shí)67 BatchNorm-1
- 課時(shí)68 BatchNorm-2
- 課時(shí)69 經(jīng)典卷積網(wǎng)絡(luò) LeNet5AlexNet VGG GoogLeNet-1
- 課時(shí)70 經(jīng)典卷積網(wǎng)絡(luò) LeNet5AlexNet VGG GoogLeNet-2
- 課時(shí)71 ResNet與DenseNet-1
- 課時(shí)72 ResNet與DenseNet-2
- 課時(shí)73 nn.Module模塊-1
- 課時(shí)74 nn.Module模塊-2
- 課時(shí)75 數(shù)據(jù)增強(qiáng)
- 課時(shí)76 CIFAR10數(shù)據(jù)集介紹
- 課時(shí)77 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-1
- 課時(shí)78 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-2
- 課時(shí)79 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練
- 課時(shí)80 ResNet實(shí)戰(zhàn)-1
- 課時(shí)81 ResNet實(shí)戰(zhàn)-2
- 課時(shí)82 ResNet實(shí)戰(zhàn)-3
- 課時(shí)84 實(shí)戰(zhàn)小結(jié)
- 課時(shí)85 時(shí)間序列表示方法
- 課時(shí)86 RNN原理-1
- 課時(shí)87 RNN原理-2
- 課時(shí)88 RNN Layer使用-1
- 課時(shí)89 RNN Layer使用-2
- 課時(shí)90 時(shí)間序列預(yù)測實(shí)戰(zhàn)
- 課時(shí)91 梯度彌散與梯度爆炸
- 課時(shí)92 LSTM原理-1
- 課時(shí)93 LSTM原理-2
- 課時(shí)94 LSTM Layer使用
- 課時(shí)95 情感分類問題實(shí)戰(zhàn)
- 課時(shí)96 Pokemon數(shù)據(jù)集
- 課時(shí)97 數(shù)據(jù)預(yù)處理
- 課時(shí)98 自定義數(shù)據(jù)集實(shí)戰(zhàn)-1
- 課時(shí)99 自定義數(shù)據(jù)集實(shí)戰(zhàn)-2
- 課時(shí)100 自定義數(shù)據(jù)集實(shí)戰(zhàn)-3
- 課時(shí)101 自定義數(shù)據(jù)集實(shí)戰(zhàn)-4
- 課時(shí)102 自定義數(shù)據(jù)集實(shí)戰(zhàn)-5
- 課時(shí)103 自定義網(wǎng)絡(luò)
- 課時(shí)104 自定義網(wǎng)絡(luò)訓(xùn)練與測試
- 課時(shí)105 自定義網(wǎng)絡(luò)實(shí)戰(zhàn)
- 課時(shí)106 遷移學(xué)習(xí)
- 課時(shí)107 遷移學(xué)習(xí)實(shí)戰(zhàn)
- 課時(shí)108 無監(jiān)督學(xué)習(xí)
- 課時(shí)109 Auto-Encoder原理
- 課時(shí)110 Auto-Encoder變種
- 課時(shí)111 Adversarial Auto-Encoder
- 課時(shí)112 變分Auto-Encoder引入
- 課時(shí)113 Reparameterization trick
- 課時(shí)114 變分自編碼器VAE
- 課時(shí)115 Auto-Encoder實(shí)戰(zhàn)-1
- 課時(shí)116 Auto-Encoder實(shí)戰(zhàn)-2
- 課時(shí)117 變分Auto-Encoder實(shí)戰(zhàn)-1
- 課時(shí)118 變分Auto-Encoder實(shí)戰(zhàn)-2
- 課時(shí)119 數(shù)據(jù)的分布
- 課時(shí)120 畫家的成長歷程
- 課時(shí)121 GAN原理
- 課時(shí)122 納什均衡-D
- 課時(shí)123 納什均衡-G
- 課時(shí)124 JS散度的缺陷
- 課時(shí)125 EM距離
- 課時(shí)126 WGAN與WGAN-GP
- 課時(shí)127 GAN實(shí)戰(zhàn)-GD實(shí)現(xiàn)
- 課時(shí)128 GAN實(shí)戰(zhàn)-網(wǎng)絡(luò)訓(xùn)練
- 課時(shí)130 WGAN-GP實(shí)戰(zhàn)
- 課時(shí)138 感知機(jī)的提出
- 課時(shí)139 BP神經(jīng)網(wǎng)絡(luò)
- 課時(shí)140 CNN和LSTM的發(fā)明
- 課時(shí)141 人工智能的低潮
- 課時(shí)142 深度學(xué)習(xí)的誕生
- 課時(shí)143 深度學(xué)習(xí)的繁榮
- 課時(shí)144 numpy實(shí)戰(zhàn)BP網(wǎng)絡(luò)-權(quán)值的表示
- 課時(shí)145 多層感知機(jī)的實(shí)現(xiàn)
- 課時(shí)146 多層感知機(jī)前向傳播
- 課時(shí)148 多層感知機(jī)反向傳播-2
- 課時(shí)149 多層感知機(jī)反向傳播-3
- 課時(shí)150 多層感知機(jī)的訓(xùn)練
- 課時(shí)151 多層感知機(jī)的測試
隨著深度學(xué)習(xí)的發(fā)展,深度學(xué)習(xí)框架開始大量的出現(xiàn)。尤其是近兩年,Google、Facebook、Microsoft等巨頭都圍繞深度學(xué)習(xí)重點(diǎn)投資了一系列新興項(xiàng)目,他們也一直在支持一些開源的深度學(xué)習(xí)框架。目前研究人員正在使用的深度學(xué)習(xí)框架不盡相同,有 TensorFlow 、Pytorch、Caffe、Theano、Keras等。
這些講座長度相對(duì)簡短,重點(diǎn)突出,非常適合碎片時(shí)間學(xué)習(xí)。通過這系列課程,我們將學(xué)習(xí)如何用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò),并且我們非常接近于從頭開始編寫神經(jīng)網(wǎng)絡(luò)。這將幫助我們對(duì)神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)有更深入的了解。
課程每兩天發(fā)布一節(jié),目前已發(fā)布的內(nèi)容包括:
PyTorch先修要求——神經(jīng)網(wǎng)絡(luò)編程系列教學(xué)大綱
PyTorch的解釋——Python深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)API
PyTorch安裝——快速簡便
CUDA的解釋——為什么深度學(xué)習(xí)要使用GPU
Tensors 的解釋——深度學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)
Rank,Axes和Shape的解釋——深度學(xué)習(xí)的延伸
CNN張量形狀的解釋——卷積神經(jīng)網(wǎng)絡(luò)和特征映射
神經(jīng)網(wǎng)絡(luò)編程系列課程目錄
第1部分:PyTorch和Tensors
第1節(jié):PyTorch簡介
PyTorch——Python深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)API
PyTorch安裝——快速、簡便地安裝PyTorch
CUDA——為什么深度學(xué)習(xí)使用GPU
第2節(jié): Tensors
Tensors——深度學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)
Rank, Axes和Shape——深度學(xué)習(xí)的延伸
PyTorch Tensors——神經(jīng)網(wǎng)絡(luò)編程
創(chuàng)建PyTorch Tensors——最佳選擇
PyTorchTensors——Reshaping操作
PyTorch Tensors——Element-wise Operations操作
PyTorch張Tensors——Reduction 和 Access 操作
第2部分:使用PyTorch進(jìn)行神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
第1節(jié):數(shù)據(jù)和數(shù)據(jù)處理
Fashion MNIST——機(jī)器學(xué)習(xí)數(shù)據(jù)集
PyTorch torchvision——帶數(shù)據(jù)集和數(shù)據(jù)加載器的ETL
用于機(jī)器學(xué)習(xí)的PyTorch數(shù)據(jù)集和數(shù)據(jù)加載器
第2節(jié):神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)
PyTorch中的CNN層的屬性參數(shù)
PyTorch中的CNN前向傳播實(shí)現(xiàn)
前向傳播——將單個(gè)圖像傳遞給神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)批處理——傳遞圖像的batch
卷積神經(jīng)網(wǎng)絡(luò)張量變換
第3節(jié):訓(xùn)練神經(jīng)網(wǎng)絡(luò)
使用PyTorch訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)
使用混淆矩陣分析CNN的結(jié)果
神經(jīng)網(wǎng)絡(luò)編程:第1部分
神經(jīng)網(wǎng)絡(luò)編程系列的第一部分包括2節(jié)內(nèi)容。
第一節(jié)將介紹PyTorch及其功能,解釋為什么應(yīng)該首先使用PyTorch。 此外,還將介紹CUDA,這是一個(gè)在Nvidia GPU上進(jìn)行并行計(jì)算的軟件平臺(tái)。如果你對(duì)為什么深度學(xué)習(xí)首先使用GPU有疑問,CUDA的部分將介紹這些細(xì)節(jié)!
第二節(jié)全部是關(guān)于Tensor,即深度學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu)。了解張量對(duì)于成為深度學(xué)習(xí)專業(yè)人士至關(guān)重要,因此這部分將詳細(xì)介紹。
當(dāng)然,我們將使用PyTorch,但是我們?cè)诒竟?jié)中學(xué)到的概念和操作對(duì)于理解神經(jīng)網(wǎng)絡(luò)是必要的,并且將適用于任何深度學(xué)習(xí)框架。
神經(jīng)網(wǎng)絡(luò)編程:第2部分
神經(jīng)網(wǎng)絡(luò)編程系列的第二部分將帶領(lǐng)學(xué)習(xí)者開始構(gòu)建第一個(gè)深度學(xué)習(xí)項(xiàng)目。
第二部分由三節(jié)內(nèi)容組成。
第一部分將涵蓋深度學(xué)習(xí)的數(shù)據(jù)和數(shù)據(jù)處理,以及這些與你的深度學(xué)習(xí)項(xiàng)目的關(guān)系。由于張量是深度學(xué)習(xí)的數(shù)據(jù)結(jié)構(gòu),我們將利用從第一部分中學(xué)到的有關(guān)張量的所有知識(shí)。我們將介紹要用于構(gòu)建用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò)的Fashion-MNIST數(shù)據(jù)集。
