- 1.深度學(xué)習(xí)介紹
- 2.神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)
- 3.淺層神經(jīng)網(wǎng)絡(luò)
- 4.深層神經(jīng)網(wǎng)絡(luò)
- 5.梯度下降算法改進算法
- 6.正則化
- 7. 線性回歸的推導(dǎo)
- 8.線性回歸的基本使用
- 9.線性回歸的應(yīng)用
- 10.正規(guī)方程-二元一次方程
- 12.正規(guī)方程-八元一次方程總結(jié)
- 13.正規(guī)方程-正規(guī)方程推導(dǎo)
- 14.梯度下降-波士頓房價預(yù)測
- 15.梯度下降-無約束最優(yōu)化
- 16.梯度下降-概念
- 17.梯度下降-公式
- 18.梯度下降-學(xué)習(xí)率梯度下降步驟
- 19.梯度下降-代碼模擬梯度下降
- 20.梯度下降-模擬可視化
- 21.梯度下降-三種不同梯度下降方式
- 22.梯度下降-梯度更新公式
- 23.梯度下降-BGD更新公式
- 24.梯度下降-BGD代碼演示
- 25.梯度下降-SGD梯度下降代碼演示
- 26.梯度下降-歸一化作用和意義
- 27.梯度下降-最大值最小值歸一化
- 28.梯度下降-Z-score標(biāo)準(zhǔn)化
- 29.梯度下降-總結(jié)
- 30.梯度下降-正則化
- 31.梯度下降-套索回歸-原理
- 32.梯度下降-套索回歸原理
- 33.梯度下降-套索回歸代碼應(yīng)用舉例
- 34.梯度下降-Ridge嶺回歸原理介紹
- 35.梯度下降-Ridge代碼演示使用
- 36.梯度下降-彈性網(wǎng)絡(luò)代碼演練
- 37.降維算法-NMF原理
- 38.梯度下降-多項式概念
- 39.梯度下降-多項式代碼演示
- 40.降維算法-NMF代碼實現(xiàn)
- 41.降維算法-LLE原理
- 42.決策樹-可視化-軟件安裝
- 43.降維算法-LLE代碼實現(xiàn)
- 44.決策樹-概述
- 45.決策樹-使用
- 46.決策樹-可視化操作
- 47.決策樹-信息熵
- 48.決策樹-未分裂-信息熵計算
- 49.決策樹-裂分條件的計算
- 50.決策樹-篩選最佳裂分條件
- 51.決策樹-繼續(xù)葉節(jié)點分裂
- 52.決策樹-分裂指標(biāo)
- 53.決策樹-gini系數(shù)裂分
- 54.決策樹-剪枝操作
- 55.決策樹-篩選超參數(shù)
- 56.決策回歸樹-概念
- 57.決策回歸樹樹-案例說明
- 58.決策回歸樹-裂分mse計算
- 59.決策回歸樹-最佳裂分點計算
- 60.決策回歸樹-value計算
- 61.決策回歸樹-糖尿病案例VS線性回歸
- 62.集成算法-概述
- 63.集成算法-不同方式和步驟
- 64.梯度下降-天貓雙十一銷量預(yù)測【一】
- 65.梯度下降-天貓雙十一銷量預(yù)測【二】
- 66.邏輯斯蒂回歸-概念概述
- 67.邏輯斯蒂回歸-代碼應(yīng)用舉例
- 68.邏輯斯蒂回歸-二分類-概率計算
- 69.邏輯斯蒂回歸-多分類-ovr-概率計算
- 70.邏輯斯蒂回歸-多分類-multinomial-概率計算
- 71.邏輯斯蒂回歸-多分類思想
- 72.邏輯斯蒂回歸-損失函數(shù)
- 73.XGBoost-篩選最佳模型數(shù)量-回顧
- 74.XGBoost-篩選最佳參數(shù)實戰(zhàn)
- 75.SVM-什么是支持向量機
- 76.VM-分類應(yīng)用
- 77.SVM-超平面可視化
- 78.SVM-構(gòu)建目標(biāo)函數(shù)【一】
- 79.SVM-目標(biāo)函數(shù)【二】
- 80.SVM-線性分類-分界線繪制
- 81.SVM-拉格朗日乘子法
- 82.SVM-KKT條件介紹【一】
- 83.SVM-KKT條件介紹
- 84.SVM-KKT條件【三】
- 85.SVM-對偶問題
- 86.SVM-非線性核函數(shù)
- 87.SVM-核函數(shù)介紹
- 88.SVM-核函數(shù)應(yīng)用
- 89.SVM-非線性核函數(shù)案例
本課程教學(xué)內(nèi)容涵蓋信息圖形和視覺傳達(dá)設(shè)計的基礎(chǔ)理論、基本原則和方法,以及相關(guān)制圖標(biāo)準(zhǔn)和規(guī)范;課程以“為什么學(xué)-學(xué)什么-如何學(xué)”的邏輯主線展開,涉及標(biāo)識簡歷、統(tǒng)計圖表、概念示意圖和地圖等信息圖示類型,通過經(jīng)典案例講解和學(xué)生作品賞析,掌握數(shù)據(jù)、概念等各類主客觀信息的圖形表達(dá)技巧。
線性回歸 (Linear Regression):用于預(yù)測連續(xù)型變量的算法,通過擬合一個線性模型來描述自變量和因變量之間的關(guān)系。
邏輯回歸 (Logistic Regression):用于預(yù)測二分類問題的算法,通過擬合一個邏輯函數(shù)來估計因變量為某一類別的概率。
決策樹 (Decision Tree):一種樹狀模型,通過一系列的決策節(jié)點和葉節(jié)點來對數(shù)據(jù)進行分類或回歸。
隨機森林 (Random Forest):一種集成學(xué)習(xí)算法,通過多個決策樹組成的森林來進行分類或回歸,提高模型的準(zhǔn)確性和泛化能力。
支持向量機 (Support Vector Machine):一種二分類模型,通過在特征空間中構(gòu)建最優(yōu)超平面來實現(xiàn)數(shù)據(jù)的分類。
樸素貝葉斯 (Naive Bayes):基于貝葉斯定理和特征獨立性假設(shè)的分類算法,常用于文本分類和垃圾郵件過濾等任務(wù)。
K均值聚類 (K-Means Clustering):一種無監(jiān)督學(xué)習(xí)算法,通過將數(shù)據(jù)點劃分為K個簇來實現(xiàn)聚類。
主成分分析 (Principal Component Analysis):一種降維技術(shù),通過線性變換將高維數(shù)據(jù)映射到低維空間,保留最重要的特征。
神經(jīng)網(wǎng)絡(luò) (Neural Networks):一種模仿人類神經(jīng)系統(tǒng)的機器學(xué)習(xí)模型,通過多層神經(jīng)元構(gòu)建復(fù)雜的非線性模型。
深度學(xué)習(xí) (Deep Learning):一種基于神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)技術(shù),通過多層神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)更加復(fù)雜的模式和特征。深度學(xué)習(xí)在圖像識別、語音識別等領(lǐng)域取得了巨大成功。
