2025李宏毅Transformer課程

  • 名稱:2025李宏毅Transf
  • 分類(lèi):人工智能  
  • 觀看人數(shù):加載中
  • 時(shí)間:2025/4/9 21:35:31

李宏毅 2025 年 Transformer 課程是其人工智能課程體系中的重要組成部分,在臺(tái)大李宏毅 2025 人工智能課程合集中有所涵蓋。以下是該課程的簡(jiǎn)介:

課程內(nèi)容

Transformer 架構(gòu)基礎(chǔ):從 Sequence-to-sequence(Seq2seq)模型的工作原理及其局限性講起,介紹如何利用自注意力機(jī)制改進(jìn)傳統(tǒng) Seq2seq 模型,引入 Transformer 模型。講解 Transformer 采用的 Encoder - Decoder 框架,包括編碼器如何接收輸入序列并將其轉(zhuǎn)換成一系列特征表示,解碼器如何基于編碼后的信息逐步生成目標(biāo)序列。

核心機(jī)制詳解:深入剖析 Self - Attention 的基本原理與具體過(guò)程,包括輸入如何通過(guò)乘上不同的變換矩陣產(chǎn)生不同的向量。介紹 “多頭” 注意力(“multi - headed” attention)機(jī)制,進(jìn)一步完善自注意力層。為解決 Self - Attention 中詞的順序信息問(wèn)題,講解 Position Encoding 操作。

模型細(xì)節(jié)與優(yōu)化:介紹 Transformer 內(nèi)部的子層,如自注意力機(jī)制(Multi - Head Attention)和前饋神經(jīng)網(wǎng)絡(luò)(Feed Forward),以及每個(gè)子層處理之后如何使用殘差連接和層歸一化(Add&Norm)對(duì)結(jié)果進(jìn)行處理得到最后的輸出。探討 Transformer 架構(gòu)的一些變形,以及如何根據(jù)不同的設(shè)計(jì)思路,將 Decoder 部分設(shè)計(jì)為自回歸(Autoregressive)模型和非自回歸(Non - Autoregressive)模型。

實(shí)際應(yīng)用與案例:展示多個(gè)真實(shí)世界的例子,說(shuō)明 Transformer 如何應(yīng)用于自然語(yǔ)言處理等領(lǐng)域,如語(yǔ)音翻譯、Text - to - Speech(TTS)Synthesis 等。

課程資料

課程資料豐富,不僅有視頻講座,還包括配套的幻燈片和筆記。

學(xué)習(xí)目標(biāo)

通過(guò)該課程的學(xué)習(xí),學(xué)生能夠深入理解 Transformer 的工作原理、內(nèi)部組件的功能,掌握 Transformer 在自然語(yǔ)言處理等領(lǐng)域的應(yīng)用,為進(jìn)一步研究和應(yīng)用 Transformer 模型,以及從事相關(guān)的人工智能研究和開(kāi)發(fā)工作打下堅(jiān)實(shí)的基礎(chǔ)。


成都市| 威海市| 会昌县| 东阿县| 哈密市| 咸阳市| 牙克石市| 汉川市| 永靖县| 中西区| 大理市| 报价| 奉节县| 蒙自县| 且末县| 中西区| 巴青县| 台东市| 两当县| 夏河县| 惠来县| 钦州市| 屯昌县| 平顶山市| 赤水市| 安多县| 遂溪县| 隆安县| 开原市| 忻州市| 武邑县| 手游| 麟游县| 高密市| 汉川市| 阿鲁科尔沁旗| 双城市| 阳曲县| 中牟县| 龙江县| 永吉县|