Python 基礎(chǔ)
機(jī)器學(xué)習(xí)算法
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
課程目錄
第一章:Python開(kāi)發(fā)環(huán)境搭建 1-下載Miniconda運(yùn)行環(huán)境
2-Miniconda安裝和測(cè)試
3-Pycharm安裝和代碼運(yùn)行
4-Jupyter安裝和代碼運(yùn)行
5-Jupyter常用快捷鍵
6-Conda虛擬環(huán)境創(chuàng)建與Python模塊安裝
7-關(guān)聯(lián)虛擬環(huán)境運(yùn)行代碼
第二章:Python基礎(chǔ)語(yǔ)法 1-Python是強(qiáng)類型的動(dòng)態(tài)腳本語(yǔ)言
2-Python_控制語(yǔ)句_單雙分支
3-Python_控制語(yǔ)句_多分支_三元條件運(yùn)算符
4-Python_控制語(yǔ)句_while循環(huán)
5-Python_控制語(yǔ)句_for循環(huán)
6-Python_控制語(yǔ)句_嵌套循環(huán)
7-Python_控制語(yǔ)句_break_continue
8-Python_切片操作
9-Python_數(shù)據(jù)類型
10-Python_集合操作_列表
11-Python_集合操作_列表的基本操作
12-Python_集合操作_列表的常用方法
13-Python_集合操作_元組
14-Python_集合操作_字典和常見(jiàn)操作
15-Python_集合操作_字典keys方法_enumerate函數(shù)
16-Python_os模塊_shutil模塊
17-Python_打開(kāi)并讀取文件_中文編碼問(wèn)題
18-Python_函數(shù)_定義_調(diào)用_返回值_注釋
19-Python_函數(shù)_局部變量_全局變量
20-Python_函數(shù)_默認(rèn)參數(shù)_可變參數(shù)
21-Python_函數(shù)_遞歸
22-Python_函數(shù)式編程_高階函數(shù)
23-Python_函數(shù)式編程_map_reduce_filter_匿名函數(shù)
24-Python_函數(shù)_閉包
25-Python_函數(shù)_裝飾器
26-Python_類對(duì)象_定義與實(shí)例化對(duì)象
27-Python_類對(duì)象_實(shí)例屬性和方法_類屬性和方法
28-Python_類對(duì)象_內(nèi)置方法
29-Python_類對(duì)象_運(yùn)算符重載_私有對(duì)象方法_isinstance函數(shù)
30-Python_類對(duì)象_面向?qū)ο笕筇匦訽類的繼承
31-Python_類對(duì)象_子類復(fù)用父類構(gòu)造器和方法_方法重寫
第三章:機(jī)器學(xué)習(xí)-線性回歸 1-理解簡(jiǎn)單線性回歸
2-最優(yōu)解_損失函數(shù)_MSE
3-擴(kuò)展到多元線性回歸
4-理解多元線性回歸表達(dá)式幾種寫法的原因
5-理解維度這個(gè)概念
6-理解回歸一詞_中心極限定理_正太分布和做預(yù)測(cè)
7-假設(shè)誤差服從正太分布_最大似然估計(jì)MLE
8-引入正太分布的概率密度函數(shù)
9-明確目標(biāo)通過(guò)最大總似然求解θ
10-對(duì)數(shù)似然函數(shù)_推導(dǎo)出損失函數(shù)MSE
11-把目標(biāo)函數(shù)按照線性代數(shù)的方式去表達(dá)
12-推導(dǎo)出目標(biāo)函數(shù)的導(dǎo)函數(shù)形式
13-θ解析解的公式_是否要考慮損失函數(shù)是凸函數(shù)
14-Python開(kāi)發(fā)環(huán)境版本的選擇及下載
15-Anaconda環(huán)境安裝_Pycharm環(huán)境安裝
16-Pycharm創(chuàng)建腳本并測(cè)試python開(kāi)發(fā)環(huán)境
17-解析解的方式求解多元線性回歸_數(shù)據(jù)Xy
18-解析解的方式求解多元線性回歸_求解模型_使用模型_繪制圖形
19-解析解的方式求解多元線性回歸_擴(kuò)展隨機(jī)種子概念_增加維度代碼的變換
20-Scikit-learn模塊的介紹
21-調(diào)用Scikit-learn中的多元線性回歸求解模型(上)
22-調(diào)用Scikit-learn中的多元線性回歸求解模型(下)
1-梯度下降法產(chǎn)生的目的和原因以及思想
2-梯度下降法公式
3-學(xué)習(xí)率設(shè)置的學(xué)問(wèn)_全局最優(yōu)解
4-梯度下降法迭代流程總結(jié)
5-多元線性回歸下的梯度下降法
6-全量梯度下降
7-隨機(jī)梯度下降_小批量梯度下降
8-對(duì)應(yīng)梯度下降法的問(wèn)題和挑戰(zhàn)
9-輪次和批次
10-代碼實(shí)現(xiàn)全量梯度下降第1步和第2步
11-代碼實(shí)現(xiàn)全量梯度下降第3步和第4步
12-代碼實(shí)現(xiàn)隨機(jī)梯度下降
13-代碼實(shí)現(xiàn)小批量梯度下降
14-代碼改進(jìn)保證訓(xùn)練數(shù)據(jù)全都能被隨機(jī)取到
15-代碼改進(jìn)實(shí)現(xiàn)隨著迭代增加動(dòng)態(tài)調(diào)整學(xué)習(xí)率
1-歸一化的目的_維度之間數(shù)量級(jí)不同產(chǎn)生的矛盾
2-歸一化的目的_舉例子來(lái)理解做歸一化和不做歸一化的區(qū)別
3-歸一化的副產(chǎn)品_有可能會(huì)提高模型的精度
4-最大值最小值歸一化
5-標(biāo)準(zhǔn)歸一化
6-代碼完成標(biāo)準(zhǔn)歸一化
1-正則化的目的防止過(guò)擬合
2-正則化通過(guò)損失函數(shù)加入懲罰項(xiàng)使得W越小越好
3-常用的L1和L2正則項(xiàng)以及數(shù)學(xué)意義
4-L1稀疏性和L2平滑性
5-通過(guò)L1和L2的導(dǎo)函數(shù)理解區(qū)別的本質(zhì)原因
1-代碼調(diào)用Ridge嶺回歸
2-代碼調(diào)用Lasso回歸
3-代碼調(diào)用ElasticNet回歸
4-升維的意義_多項(xiàng)式回歸
5-多項(xiàng)式升維代碼實(shí)戰(zhàn)_傳入不同超參數(shù)對(duì)比
6-多項(xiàng)式升維代碼實(shí)戰(zhàn)_訓(xùn)練模型和評(píng)估
7-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_數(shù)據(jù)介紹和加載數(shù)據(jù)
8-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_數(shù)據(jù)預(yù)處理
9-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_模型訓(xùn)練和評(píng)估_選擇非線性算法改進(jìn)
10-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_特征選擇思路
11-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_特征工程
12-實(shí)戰(zhàn)保險(xiǎn)花銷預(yù)測(cè)_模型訓(xùn)練和評(píng)估
第四章:機(jī)器學(xué)習(xí)-邏輯回歸 1-邏輯回歸_Sigmoid函數(shù)
2-sigmoid函數(shù)作用
3-邏輯回歸為什么用sigmoid函數(shù)_預(yù)備知識(shí)
4-證明伯努利分布是指數(shù)族分布_推導(dǎo)出邏輯回歸公式
5-回想多元線性回歸公式其實(shí)也是從廣義線性回歸推導(dǎo)出來(lái)的
6-推導(dǎo)邏輯回歸損失函數(shù)_得到總似然的公式
7-推導(dǎo)邏輯回歸損失函數(shù)_得到最終形式
8-繪制邏輯回歸損失函數(shù)_讀入數(shù)據(jù)計(jì)算最優(yōu)解模型_實(shí)現(xiàn)邏輯回歸預(yù)測(cè)_實(shí)現(xiàn)邏輯回歸損失函數(shù)
9-繪制邏輯回歸損失函數(shù)_探索單個(gè)參數(shù)和損失的關(guān)系
10-繪制邏輯回歸損失函數(shù)_探索兩個(gè)參數(shù)和損失函數(shù)變換關(guān)系
11-繪制邏輯回歸損失函數(shù)_繪制3D的圖形_分析X1X2兩個(gè)維度的重要度
12-對(duì)邏輯回歸函數(shù)進(jìn)行求導(dǎo)_結(jié)論在后面會(huì)用到
13-對(duì)邏輯回歸的損失函數(shù)求導(dǎo)_推導(dǎo)出導(dǎo)函數(shù)的形式
14-實(shí)戰(zhàn)邏輯回歸對(duì)鳶尾花數(shù)據(jù)集進(jìn)行二分類
15-OneVsRest將多分類問(wèn)題轉(zhuǎn)化成多個(gè)二分類問(wèn)題
16-實(shí)戰(zhàn)邏輯回歸對(duì)鳶尾花數(shù)據(jù)集進(jìn)行多分類
第五章:機(jī)器學(xué)習(xí)-無(wú)監(jiān)督學(xué)習(xí) 1-KMeans聚類流程_距離測(cè)度歐式距離和余弦距離
2-距離測(cè)度歐式距離和余弦距離的場(chǎng)景_TFIDF
3-KMeans的一些變形_KMeans的損失函數(shù)推導(dǎo)及假設(shè)
4-mini-batchKMeans_Canopy聚類_聚類評(píng)估指標(biāo)
5-KMeans代碼測(cè)試不同情況下的聚類效果
6-層次聚類_密度聚類_譜聚類
第六章:機(jī)器學(xué)習(xí)-決策樹與隨機(jī)森林1-決策樹模型的特點(diǎn)
2-決策樹的數(shù)學(xué)表達(dá)
3-如何構(gòu)建一顆決策樹
4-什么是更好的一次劃分
5-Gini系數(shù)
6-信息增益
7-熵與Gini系數(shù)關(guān)系_信息增益率
8-預(yù)剪枝以及相關(guān)超參數(shù)
9-代碼實(shí)戰(zhàn)決策樹對(duì)鳶尾花數(shù)據(jù)集分類
10-繪制決策樹模型_尋找最優(yōu)樹深度
11-代碼訓(xùn)練回歸樹擬合SineWave
12-后剪枝的意義
13-CCP代價(jià)復(fù)雜度后剪枝
14-CCP代價(jià)復(fù)雜度剪枝_α超參數(shù)設(shè)定
1-不同聚合方式_生成不同弱學(xué)習(xí)器方式
2-Bagging_Boosting_Stacking
3-隨機(jī)森林
4-代碼實(shí)戰(zhàn)隨機(jī)森林對(duì)鳶尾花數(shù)據(jù)集分類
5-OOB袋外數(shù)據(jù)
6-Adaboost算法思路
7-調(diào)整數(shù)據(jù)權(quán)重讓權(quán)重正確率達(dá)到50%
8-Adaboost如何調(diào)整樣本權(quán)重和求基模型權(quán)重
第七章:機(jī)器學(xué)習(xí)與大數(shù)據(jù)-Kaggle競(jìng)賽實(shí)戰(zhàn)1-Rossmann藥店銷量預(yù)測(cè)_kaggle的介紹
2-對(duì)數(shù)據(jù)字段的介紹_導(dǎo)包
3-自定義損失函數(shù)
4-對(duì)數(shù)據(jù)里面的目標(biāo)變量sales的一個(gè)分析
5-數(shù)據(jù)的預(yù)處理
6-模型的訓(xùn)練_評(píng)估
7-kaggle競(jìng)賽網(wǎng)站學(xué)習(xí)
第八章:深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò) 1-神經(jīng)網(wǎng)絡(luò)是有監(jiān)督的算法_生物神經(jīng)元到人工神經(jīng)元
2-三種常見(jiàn)的激活函數(shù)_網(wǎng)絡(luò)拓?fù)浣榻B_優(yōu)化算法
3-單層神經(jīng)網(wǎng)絡(luò)正向傳播計(jì)算過(guò)程_用神經(jīng)網(wǎng)絡(luò)理解邏輯回歸做多分類
4-用神經(jīng)網(wǎng)絡(luò)理解Softmax回歸
5-隱藏層的意義_隱藏層相當(dāng)于去做預(yù)處理_升維降維
6-多節(jié)點(diǎn)網(wǎng)絡(luò)輸出_sklearn中NN模塊的介紹
7-sklearn中NN模型的代碼使用
8-隱藏層激活函數(shù)必須是非線性的
9-tensorflow概要_conda創(chuàng)建虛擬環(huán)境_CPU版本的tensorflow安裝
第九章:計(jì)算機(jī)視覺(jué)圖像識(shí)別原理 1-圖像識(shí)別任務(wù)_古典目標(biāo)檢測(cè)
2-使用OpenCV調(diào)用分類器找到目標(biāo)框
3-IOU以及python計(jì)算的代碼
4-R-CNN和SPP-net
5-從FastRCNN引入FasterRCNN
1-回顧RCNN_SPPnet_Fast-RCNN
2-FasterRNN的核心RPN_正向傳播的框過(guò)濾_NMS
3-NMS代碼實(shí)現(xiàn)流程_mAP目標(biāo)檢測(cè)平均指標(biāo)
4-FasterRCNN論文講解_從介紹到RPN的loss
5-FasterRCNN論文講解_從RPN損失到評(píng)估指標(biāo)對(duì)比
1-基于CascadeClassifier來(lái)提取目標(biāo)框做車牌識(shí)別代碼詳解_01
2-基于CascadeClassifier來(lái)提取目標(biāo)框做車牌識(shí)別代碼詳解_02
3-基于CascadeClassifier來(lái)提取目標(biāo)框做車牌識(shí)別代碼詳解_03
4-基于CascadeClassifier來(lái)提取目標(biāo)框做車牌識(shí)別代碼詳解_04
5-車牌識(shí)別項(xiàng)目關(guān)于目標(biāo)檢測(cè)的問(wèn)題
1-圖片風(fēng)格融合項(xiàng)目_架構(gòu)_代碼實(shí)現(xiàn)要點(diǎn)_1
2-圖片風(fēng)格融合項(xiàng)目_架構(gòu)_代碼實(shí)現(xiàn)要點(diǎn)_2
3-圖片風(fēng)格融合項(xiàng)目_架構(gòu)_代碼實(shí)現(xiàn)要點(diǎn)_3
4-圖片風(fēng)格融合項(xiàng)目_架構(gòu)_代碼實(shí)現(xiàn)要點(diǎn)_4
第十章:NLP自然語(yǔ)言處理原理和進(jìn)階 1-N-gram語(yǔ)言模型
2-NPLM神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型
3-詞向量的作用
4-CBOW模型思想和計(jì)算過(guò)程
5-Skip-gram模型思想和計(jì)算過(guò)程
6-Huffman樹_分層Softmax的思想
7-分層Softmax應(yīng)用到CBOW模型上
8-負(fù)采樣和負(fù)采樣應(yīng)用到CBOW模型上
1-理解RNN循環(huán)神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)
2-理解RNN循環(huán)神經(jīng)網(wǎng)絡(luò)計(jì)算流程
3-利用RNN循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)MNIST手寫數(shù)字識(shí)別
4-理解LSTM長(zhǎng)短時(shí)記憶_記住Topo和公式
5-VanillaRNN的回顧復(fù)習(xí)
6-補(bǔ)充講一下為什么RNN中鏈越長(zhǎng)越容易梯度消失
7-LSTM的回顧復(fù)習(xí)_LSTM手寫數(shù)字識(shí)別
8-雙向RNN_LSTM
9-RNN里面應(yīng)用的Topology結(jié)構(gòu)
1-從AI寫唐詩(shī)到Seq2Seq再到Encoder-Decoder
2-Seq2Seq版Chatbot的數(shù)據(jù)預(yù)處理
3-Seq2Seq版Chatbot訓(xùn)練和模型使用
GPT2閑聊機(jī)器人
1-BERT新浪新聞10分類項(xiàng)目