- 1.1 深度學(xué)習(xí)框架簡(jiǎn)介1
- 2.2 PyTorch功能演示2
- 3.3 開(kāi)發(fā)環(huán)境安裝(簡(jiǎn)介)3
- 4.4 簡(jiǎn)單回歸問(wèn)題-14
- 5.5 簡(jiǎn)單回歸問(wèn)題-25
- 6.6 回歸問(wèn)題實(shí)戰(zhàn)6
- 7.7 分類問(wèn)題引入-17
- 8.8 分類問(wèn)題引入-28
- 9.9 手寫數(shù)字識(shí)別初體驗(yàn)-19
- 10.10 手寫數(shù)字識(shí)別初體驗(yàn)-210
- 11.11 手寫數(shù)字識(shí)別初體驗(yàn)-311
- 12.12 手寫數(shù)字識(shí)別初體驗(yàn)-412
- 13.13 手寫數(shù)字識(shí)別初體驗(yàn)-513
- 14.14 張量數(shù)據(jù)類型-114
- 15.15 張量數(shù)據(jù)類型-215
- 16.16 創(chuàng)建Tensor-116
- 17.17 創(chuàng)建Tensor-217
- 18.18 索引與切片-118
- 19.19 索引與切片-219
- 20.20 維度變換-120
- 21.21 維度變換-221
- 22.22 維度變換-322
- 23.23 維度變換-423
- 24.24 Broadcasting-124
- 25.25 Broadcasting-225
- 26.26 Broadcasting-326
- 27.27 合并與分割-127
- 28.28 合并與分割-228
- 29.29 數(shù)學(xué)運(yùn)算-129
- 30.30 數(shù)學(xué)運(yùn)算-230
- 31.31 屬性統(tǒng)計(jì)-131
- 32.32 屬性統(tǒng)計(jì)-232
- 33.33 高階操作33
- 34.34 什么是梯度-134
- 35.35 什么是梯度-235
- 36.36 常見(jiàn)函數(shù)的梯度36
- 37.37 激活函數(shù)與Loss的梯度-137
- 38.38 激活函數(shù)與Loss的梯度-238
- 39.39 激活函數(shù)與Loss的梯度-339
- 40.40 激活函數(shù)與Loss的梯度-440
- 41.41 感知機(jī)的梯度推導(dǎo)-141
- 42.42 感知機(jī)的梯度推導(dǎo)-242
- 43.43 鏈?zhǔn)椒▌t43
- 44.44 反向傳播算法-144
- 45.45 反向傳播算法-245
- 46.46 優(yōu)化問(wèn)題實(shí)戰(zhàn)46
- 47.47 Logistic Regression47
- 48.48 交叉熵-148
- 49.49 交叉熵-249
- 50.50 多分類問(wèn)題實(shí)戰(zhàn)50
- 51.52 激活函數(shù)與GPU加速51
- 52.53 MNIST測(cè)試實(shí)戰(zhàn)52
- 53.54 Visdom可視化53
- 54.55 過(guò)擬合與欠擬合54
- 55.56 交叉驗(yàn)證-155
- 56.57 交叉驗(yàn)證-256
- 57.58 Regularization57
- 58.59 動(dòng)量與學(xué)習(xí)率衰減58
- 59.60 Early stopping dropout等59
- 60.61 什么是卷積-160
- 61.62 什么是卷積-261
- 62.63 卷積神經(jīng)網(wǎng)絡(luò)-162
- 63.64 卷積神經(jīng)網(wǎng)絡(luò)-263
- 64.65 卷積神經(jīng)網(wǎng)絡(luò)-364
- 65.66 池化層與采樣65
- 66.67 BatchNorm-166
- 67.68 BatchNorm-267
- 68.69 經(jīng)典卷積網(wǎng)絡(luò) LeNet5AlexNet VGG Goog68
- 69.70 經(jīng)典卷積網(wǎng)絡(luò) LeNet5AlexNet VGG Goog69
- 70.71 ResNet與DenseNet-170
- 71.72 ResNet與DenseNet-271
- 72.73 nn.Module模塊-172
- 73.74 nn.Module模塊-273
- 74.75 數(shù)據(jù)增強(qiáng)74
- 75.76 CIFAR10數(shù)據(jù)集介紹75
- 76.77 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-176
- 77.78 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)-277
- 78.79 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練78
- 79.80 ResNet實(shí)戰(zhàn)-179
- 80.81 ResNet實(shí)戰(zhàn)-280
- 81.82 ResNet實(shí)戰(zhàn)-381
- 82.83 ResNet實(shí)戰(zhàn)-482
- 83.84 實(shí)戰(zhàn)小結(jié)83
- 84.85 時(shí)間序列表示方法84
- 85.86 RNN原理-185
- 86.87 RNN原理-286
- 87.88 RNN Layer使用-187
- 88.89 RNN Layer使用-288
- 89.90 時(shí)間序列預(yù)測(cè)實(shí)戰(zhàn)89
- 90.91 梯度彌散與梯度爆炸90
- 91.92 LSTM原理-191
- 92.93 LSTM原理-292
- 93.94 LSTM Layer使用93
- 94.95 情感分類問(wèn)題實(shí)戰(zhàn)94
- 95.96 Pokemon數(shù)據(jù)集95
- 96.97 數(shù)據(jù)預(yù)處理96
- 97.98 自定義數(shù)據(jù)集實(shí)戰(zhàn)-197
- 98.99 自定義數(shù)據(jù)集實(shí)戰(zhàn)-298
- 99.100 自定義數(shù)據(jù)集實(shí)戰(zhàn)-399
- 100.101 自定義數(shù)據(jù)集實(shí)戰(zhàn)-4100
- 101.102 自定義數(shù)據(jù)集實(shí)戰(zhàn)-5101
- 102.103 自定義網(wǎng)絡(luò)102
- 103.104 自定義網(wǎng)絡(luò)訓(xùn)練與測(cè)試103
- 104.105 自定義網(wǎng)絡(luò)實(shí)戰(zhàn)104
- 105.106 遷移學(xué)習(xí)105
- 106.107 遷移學(xué)習(xí)實(shí)戰(zhàn)106
- 107.108 無(wú)監(jiān)督學(xué)習(xí)107
- 108.109 Auto-Encoder原理108
- 109.110 Auto-Encoder變種109
- 110.111 Adversarial Auto-Encoder110
- 111.112 變分Auto-Encoder引入111
- 112.113 Reparameterization trick112
- 113.114 變分自編碼器VAE113
- 114.115 Auto-Encoder實(shí)戰(zhàn)-1114
- 115.116 Auto-Encoder實(shí)戰(zhàn)-2115
- 116.117 變分Auto-Encoder實(shí)戰(zhàn)-1116
- 117.118 變分Auto-Encoder實(shí)戰(zhàn)-2117
- 118.119 數(shù)據(jù)的分布118
- 119.120 畫家的成長(zhǎng)歷程119
- 120.121 GAN原理120
- 121.122 納什均衡-D121
- 122.123 納什均衡-G122
- 123.124 JS散度的缺陷123
- 124.125 EM距離124
- 125.126 WGAN與WGAN-GP125
- 126.127 GAN實(shí)戰(zhàn)-GD實(shí)現(xiàn)126
- 127.128 GAN實(shí)戰(zhàn)-網(wǎng)絡(luò)訓(xùn)練127
- 128.129 GAN實(shí)戰(zhàn)-網(wǎng)絡(luò)訓(xùn)練魯棒性128
- 129.130 WGAN-GP實(shí)戰(zhàn)129
- 130.131 Ubuntu系統(tǒng)安裝130
- 131.132 Anaconda安裝131
- 132.133 CUDA 10安裝132
- 133.134 環(huán)境變量配置133
- 134.135 cudnn安裝134
- 135.136 PyCharm安裝與配置135
- 136.137 人工智能發(fā)展簡(jiǎn)史-生物神經(jīng)元結(jié)構(gòu)136
- 137.138 感知機(jī)的提出137
- 138.139 BP神經(jīng)網(wǎng)絡(luò)138
- 139.140 CNN和LSTM的發(fā)明139
- 140.141 人工智能的低潮140
- 141.142 深度學(xué)習(xí)的誕生141
- 142.143 深度學(xué)習(xí)的繁榮142
- 143.144 numpy實(shí)戰(zhàn)BP網(wǎng)絡(luò)-權(quán)值的表示143
- 144.145 多層感知機(jī)的實(shí)現(xiàn)144
- 145.146 多層感知機(jī)前向傳播145
- 146.147 多層感知機(jī)反向傳播146
- 147.148 多層感知機(jī)反向傳播-2147
- 148.149 多層感知機(jī)反向傳播-3148
- 149.150 多層感知機(jī)的訓(xùn)練149
- 150.151 多層感知機(jī)的測(cè)試150
近年來(lái),隨著AlphaGo、無(wú)人駕駛汽車、醫(yī)學(xué)影像智慧輔助診療、ImageNet競(jìng)賽等熱點(diǎn)事件的發(fā)生,人工智能迎來(lái)了新一輪的發(fā)展浪潮。尤其是深度學(xué)習(xí)技術(shù),在許多行業(yè)都取得了顛覆性的成果。另外,近年來(lái),Pytorch深度學(xué)習(xí)框架受到越來(lái)越多科研人員的關(guān)注和喜愛(ài)。因此,為了幫助廣大科研人員更加系統(tǒng)地學(xué)習(xí)深度學(xué)習(xí)的基礎(chǔ)理論知識(shí)及對(duì)應(yīng)的Pytorch代碼實(shí)現(xiàn)方法,Ai尚研修特舉辦“基于PyTorch機(jī)器學(xué)習(xí)與深度學(xué)習(xí)實(shí)踐應(yīng)用與案例分析培訓(xùn)班”,旨在幫助學(xué)員掌握深度學(xué)習(xí)的基礎(chǔ)知識(shí),與經(jīng)典機(jī)器學(xué)習(xí)算法的區(qū)別與聯(lián)系,以及最新的遷移學(xué)習(xí)、循環(huán)神經(jīng)網(wǎng)絡(luò)、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)、時(shí)間卷積網(wǎng)絡(luò)、對(duì)抗生成網(wǎng)絡(luò)、Yolo目標(biāo)檢測(cè)算法、自編碼器等算法的原理及其Pytorch編程實(shí)現(xiàn)方法。本次培訓(xùn)采用“理論講解+案例實(shí)戰(zhàn)+動(dòng)手實(shí)操+討論互動(dòng)”相結(jié)合的方式,抽絲剝繭、深入淺出分析深度學(xué)習(xí)在應(yīng)用時(shí)需要掌握的經(jīng)驗(yàn)及編程技巧。此外,本次培訓(xùn)還將通過(guò)實(shí)際案例的形式,介紹如何提煉創(chuàng)新點(diǎn),以及如何發(fā)表高水平論文等相關(guān)經(jīng)驗(yàn)。
