好好運用李宏毅老師非常豐富的 YouTube 網路課,按部就班建立人工智慧、機器學習、生成式人工智慧的基礎:
- 預測本頻道觀看人數 (上) - 機器學習基本概念簡介
- 預測本頻道觀看人數 (下) - 深度學習基本概念簡介
- 機器學習任務攻略
- 類神經網路訓練不起來怎麼辦 (一):局部最小值 (local minima) 與鞍點 (saddle point)
- 類神經網路訓練不起來怎麼辦 (二):批次 (batch) 與動量 (momentum)
- 類神經網路訓練不起來怎麼辦 (三):自動調整學習速率 (Learning Rate)
- 類神經網路訓練不起來怎麼辦 (四):損失函數 (Loss) 也可能有影響
- 類神經網路訓練不起來怎麼辦 (五):批次標準化 (Batch Normalization) 簡介
- 卷積神經網路 (Convolutional Neural Networks, CNN)
- 自注意力機制 (Self-attention) (上)
- 自注意力機制 (Self-attention) (下)
- Transformer (上)
- Transformer (下) ← 至少看到這裡
- 生成式對抗網路 (Generative Adversarial Network, GAN) (一) – 基本概念介紹
- 生成式對抗網路 (Generative Adversarial Network, GAN) (二) – 理論介紹與WGAN
- 生成式對抗網路 (Generative Adversarial Network, GAN) (三) – 生成器效能評估與條件式生成
- 生成式對抗網路 (Generative Adversarial Network, GAN) (四) – Cycle GAN
- 自督導式學習 (Self-supervised Learning) (一) – 芝麻街與進擊的巨人
- 自督導式學習 (Self-supervised Learning) (二) – BERT簡介
- 自督導式學習 (Self-supervised Learning) (三) – BERT的奇聞軼事
- 自督導式學習 (Self-supervised Learning) (四) – GPT的野望
- 自編碼器 (Auto-encoder) (上) – 基本概念
- 自編碼器 (Auto-encoder) (下) – 領結變聲器與更多應用
- 來自人類的惡意攻擊 (Adversarial Attack) (上) – 基本概念
- 來自人類的惡意攻擊 (Adversarial Attack) (下) – 類神經網路能否躲過人類深不見底的惡意?
- 機器學習模型的可解釋性 (Explainable ML) (上) – 為什麼類神經網路可以正確分辨寶可夢和數碼寶貝呢?
- 機器學習模型的可解釋性 (Explainable ML) (下) –機器心中的貓長什麼樣子?
- 概述領域自適應 (Domain Adaptation)
- 概述增強式學習 (Reinforcement Learning, RL) (一) – 增強式學習跟機器學習一樣都是三個步驟
- 概述增強式學習 (Reinforcement Learning, RL) (二) – Policy Gradient 與修課心情
- 概述增強式學習 (Reinforcement Learning, RL) (三) - Actor-Critic
- 概述增強式學習 (Reinforcement Learning, RL) (四) - 回饋非常罕見的時候怎麼辦?機器的望梅止渴
- 概述增強式學習 (Reinforcement Learning, RL) (五) - 如何從示範中學習?逆向增強式學習 (Inverse RL)
- 機器終身學習 (Life Long Learning, LL) (一) - 為什麼今日的人工智慧無法成為天網?災難性遺忘(Catastrophic Forgetting)
- 機器終身學習 (Life Long Learning, LL) (二) - 災難性遺忘(Catastrophic Forgetting)的克服之道
- 神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
- 神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路
- 元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
- 元學習 Meta Learning (二) - 萬物皆可 Meta
- 課程結語 - 最後的業配並改編《為學一首示子姪》作結
- 13 部影片
- 30 部影片
- 第0講:課程說明 (17:15 有芙莉蓮雷)
- 第1講:生成式AI是什麼?
- 第2講:今日的生成式人工智慧厲害在哪裡?從「工具」變為「工具人」
- 第3講:訓練不了人工智慧?你可以訓練你自己 (上) — 神奇咒語與提供更多資訊
- 第4講:訓練不了人工智慧?你可以訓練你自己 (中) — 拆解問題與使用工具
- 第5講:訓練不了人工智慧?你可以訓練你自己 (下) — 讓語言彼此合作,把一個人活成一個團隊 (開頭有芙莉蓮雷,慎入)
- 第6講:大型語言模型修練史 — 第一階段: 自我學習,累積實力 (熟悉機器學習的同學從 15:00 開始看起即可)
- 第7講:大型語言模型修練史 — 第二階段: 名師指點,發揮潛力 (兼談對 ChatGPT 做逆向工程與 LLaMA 時代的開始)
- 第8講:大型語言模型修練史 — 第三階段: 參與實戰,打磨技巧 (Reinforcement Learning from Human Feedback, RLHF) ← 至少看到第八講
- 第9講:以大型語言模型打造的AI Agent (14:50 教你怎麼打造芙莉蓮一級魔法使考試中出現的泥人哥列姆)
- 第10講:今日的語言模型是如何做文字接龍的 — 淺談Transformer (已經熟悉 Transformer 的同學可略過本講)
- 第11講:大型語言模型在「想」什麼呢? — 淺談大型語言模型的可解釋性
- 第12講:淺談檢定大型語言模型能力的各種方式
- 第13講:淺談大型語言模型相關的安全性議題 (上) — 亡羊補牢、語言模型的偏見、有多少人用 ChatGPT 寫論文審查意見
- 第14講:淺談大型語言模型相關的安全性議題 (下) — 欺騙大型語言模型
- 第15講:為什麼語言模型用文字接龍,圖片生成不用像素接龍呢?— 淺談生成式人工智慧的生成策略
- 第16講:可以加速所有語言模型生成速度的神奇外掛 — Speculative Decoding
- 第17講:有關影像的生成式AI (上) — AI 如何產生圖片和影片 (Sora 背後可能用的原理)
- 第18講:有關影像的生成式AI (下) — 快速導讀經典影像生成方法 (VAE, Flow, Diffusion, GAN) 以及與生成的影片互動
- GPT-4o 背後可能的語音技術猜測
- 一堂課搞懂生成式人工智慧的技術突破與未來發展
- 一堂課搞懂 AI Agent 的原理 (AI如何透過經驗調整行為、使用工具和做計劃)
- AI 的腦科學 — 語言模型內部運作機制剖析 (解析單一神經元到整群神經元的運作機制、如何讓語言模型說出自己的內心世界)
- Transformer 的時代要結束了嗎?介紹 Transformer 的競爭者們
- 大型語言模型訓練方法「預訓練–對齊」(Pretrain-Alignment) 的強大與極限
- 生成式人工智慧的後訓練(Post-Training)與遺忘問題
- DeepSeek-R1 這類大型語言模型是如何進行「深度思考」(Reasoning)的?
- 大型語言模型的推理過程不用太長、夠用就好
- 你這麽認這個評分系統幹什麽啊?談談有關大型語言模型評估的幾件事
- 人工智慧的微創手術 — 淺談 Model Editing
- 今天你想為 Foundation Model 裝備哪些 Task Vector?淺談神奇的 Model Merging 技術
- 語言模型如何學會說話 — 概述語音語言模型發展歷程
- Diffusion Model 原理剖析
- 6 部影片
- 6 部影片
留言
張貼留言