李宏毅老師人工智慧系列課


好好運用李宏毅老師非常豐富的 YouTube 網路課,按部就班建立人工智慧、機器學習、生成式人工智慧的基礎:

    1. 預測本頻道觀看人數 (上) - 機器學習基本概念簡介
    2. 預測本頻道觀看人數 (下) - 深度學習基本概念簡介
    3. 機器學習任務攻略
    4. 類神經網路訓練不起來怎麼辦 (一):局部最小值 (local minima) 與鞍點 (saddle point)
    5. 類神經網路訓練不起來怎麼辦 (二):批次 (batch) 與動量 (momentum)
    6. 類神經網路訓練不起來怎麼辦 (三):自動調整學習速率 (Learning Rate)
    7. 類神經網路訓練不起來怎麼辦 (四):損失函數 (Loss) 也可能有影響
    8. 類神經網路訓練不起來怎麼辦 (五):批次標準化 (Batch Normalization) 簡介
    9. 卷積神經網路 (Convolutional Neural Networks, CNN)
    10. 自注意力機制 (Self-attention) (上)
    11. 自注意力機制 (Self-attention) (下)
    12. Transformer (上)
    13. Transformer (下) ← 至少看到這裡
    14. 生成式對抗網路 (Generative Adversarial Network, GAN) (一) – 基本概念介紹
    15. 生成式對抗網路 (Generative Adversarial Network, GAN) (二) – 理論介紹與WGAN
    16. 生成式對抗網路 (Generative Adversarial Network, GAN) (三) – 生成器效能評估與條件式生成
    17. 生成式對抗網路 (Generative Adversarial Network, GAN) (四) – Cycle GAN
    18. 自督導式學習 (Self-supervised Learning) (一) – 芝麻街與進擊的巨人
    19. 自督導式學習 (Self-supervised Learning) (二) – BERT簡介
    20. 自督導式學習 (Self-supervised Learning) (三) – BERT的奇聞軼事
    21. 自督導式學習 (Self-supervised Learning) (四) – GPT的野望
    22. 自編碼器 (Auto-encoder) (上) – 基本概念
    23. 自編碼器 (Auto-encoder) (下) – 領結變聲器與更多應用
    24. 來自人類的惡意攻擊 (Adversarial Attack) (上) – 基本概念
    25. 來自人類的惡意攻擊 (Adversarial Attack) (下) – 類神經網路能否躲過人類深不見底的惡意?
    26. 機器學習模型的可解釋性 (Explainable ML) (上) – 為什麼類神經網路可以正確分辨寶可夢和數碼寶貝呢?
    27. 機器學習模型的可解釋性 (Explainable ML) (下) –機器心中的貓長什麼樣子?
    28. 概述領域自適應 (Domain Adaptation)
    29. 概述增強式學習 (Reinforcement Learning, RL) (一) – 增強式學習跟機器學習一樣都是三個步驟
    30. 概述增強式學習 (Reinforcement Learning, RL) (二) – Policy Gradient 與修課心情
    31. 概述增強式學習 (Reinforcement Learning, RL) (三) - Actor-Critic
    32. 概述增強式學習 (Reinforcement Learning, RL) (四) - 回饋非常罕見的時候怎麼辦?機器的望梅止渴
    33. 概述增強式學習 (Reinforcement Learning, RL) (五) - 如何從示範中學習?逆向增強式學習 (Inverse RL)
    34. 機器終身學習 (Life Long Learning, LL) (一) - 為什麼今日的人工智慧無法成為天網?災難性遺忘(Catastrophic Forgetting)
    35. 機器終身學習 (Life Long Learning, LL) (二) - 災難性遺忘(Catastrophic Forgetting)的克服之道
    36. 神經網路壓縮 (Network Compression) (一) - 類神經網路剪枝 (Pruning) 與大樂透假說 (Lottery Ticket Hypothesis)
    37. 神經網路壓縮 (Network Compression) (二) - 從各種不同的面向來壓縮神經網路
    38. 元學習 Meta Learning (一) - 元學習跟機器學習一樣也是三個步驟
    39. 元學習 Meta Learning (二) - 萬物皆可 Meta
    40. 課程結語 - 最後的業配並改編《為學一首示子姪》作結

    • 13 部影片

      • 30 部影片

      1. 第0講:課程說明 (17:15 有芙莉蓮雷)
      2. 第1講:生成式AI是什麼?
      3. 第2講:今日的生成式人工智慧厲害在哪裡?從「工具」變為「工具人」
      4. 第3講:訓練不了人工智慧?你可以訓練你自己 (上) — 神奇咒語與提供更多資訊
      5. 第4講:訓練不了人工智慧?你可以訓練你自己 (中) — 拆解問題與使用工具
      6. 第5講:訓練不了人工智慧?你可以訓練你自己 (下) — 讓語言彼此合作,把一個人活成一個團隊 (開頭有芙莉蓮雷,慎入)
      7. 第6講:大型語言模型修練史 — 第一階段: 自我學習,累積實力 (熟悉機器學習的同學從 15:00 開始看起即可)
      8. 第7講:大型語言模型修練史 — 第二階段: 名師指點,發揮潛力 (兼談對 ChatGPT 做逆向工程與 LLaMA 時代的開始)
      9. 第8講:大型語言模型修練史 — 第三階段: 參與實戰,打磨技巧 (Reinforcement Learning from Human Feedback, RLHF) ← 至少看到第八講
      10. 第9講:以大型語言模型打造的AI Agent (14:50 教你怎麼打造芙莉蓮一級魔法使考試中出現的泥人哥列姆)
      11. 第10講:今日的語言模型是如何做文字接龍的 — 淺談Transformer (已經熟悉 Transformer 的同學可略過本講)
      12. 第11講:大型語言模型在「想」什麼呢? — 淺談大型語言模型的可解釋性
      13. 第12講:淺談檢定大型語言模型能力的各種方式
      14. 第13講:淺談大型語言模型相關的安全性議題 (上) — 亡羊補牢、語言模型的偏見、有多少人用 ChatGPT 寫論文審查意見
      15. 第14講:淺談大型語言模型相關的安全性議題 (下) — 欺騙大型語言模型
      16. 第15講:為什麼語言模型用文字接龍,圖片生成不用像素接龍呢?— 淺談生成式人工智慧的生成策略
      17. 第16講:可以加速所有語言模型生成速度的神奇外掛 — Speculative Decoding
      18. 第17講:有關影像的生成式AI (上) — AI 如何產生圖片和影片 (Sora 背後可能用的原理)
      19. 第18講:有關影像的生成式AI (下) — 快速導讀經典影像生成方法 (VAE, Flow, Diffusion, GAN) 以及與生成的影片互動
      20. GPT-4o 背後可能的語音技術猜測

      1. 一堂課搞懂生成式人工智慧的技術突破與未來發展
      2. 一堂課搞懂 AI Agent 的原理 (AI如何透過經驗調整行為、使用工具和做計劃)
      3. AI 的腦科學 — 語言模型內部運作機制剖析 (解析單一神經元到整群神經元的運作機制、如何讓語言模型說出自己的內心世界)
      4. Transformer 的時代要結束了嗎?介紹 Transformer 的競爭者們
      5. 大型語言模型訓練方法「預訓練–對齊」(Pretrain-Alignment) 的強大與極限
      6. 生成式人工智慧的後訓練(Post-Training)與遺忘問題
      7. DeepSeek-R1 這類大型語言模型是如何進行「深度思考」(Reasoning)的?
      8. 大型語言模型的推理過程不用太長、夠用就好
      9. 你這麽認這個評分系統幹什麽啊?談談有關大型語言模型評估的幾件事
      10. 人工智慧的微創手術 — 淺談 Model Editing
      11. 今天你想為 Foundation Model 裝備哪些 Task Vector?淺談神奇的 Model Merging 技術
      12. 語言模型如何學會說話 — 概述語音語言模型發展歷程


    留言