博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【必收藏】台大李宏毅老师课程 | 资源汇总、笔记总结与索引
阅读量:2019 次
发布时间:2019-04-28

本文共 2540 字,大约阅读时间需要 8 分钟。

2020年7月20日至2020年8月18日,我刷完了台大李宏毅老师的深度学习/机器学习相关课程,我分为了 64 个大课时,记录了 64 篇笔记。

我对于李老师课程感到惊讶又欣喜:

  • 惊讶在于,李老师能把深度学习/机器学习的知识串成一套体系,并且由浅入深,前后呼应,取舍得当:既能照应到深度学习中深邃的数学理论基础,又能适当抛弃一些繁杂的理论,从工程意义上帮助我理解模型。这一切都令我惊讶。
  • 欣喜在于,李老师课程不但充实,还很风趣。谁能想到机器学习中文社区人人皆知的李宏毅老师,是位“阿宅”呢?不管怎样,我很喜欢李老师动不动就二次元的风格,怪不得李老师人称“宝可梦训练大师”。

上图选自 Structured SVM 部分,整节课,李老师都以识别《凉宫春日系列》作品主角 凉宫春日 为例

本文目录:

  • 如何找到课程资源
  • 课程章节的汇总
  • 课程总结以及我的下一步学习计划

如何找到课程资源

我主要在中文互联网观看李老师课程,感谢两位 B 站 UP 主的搬运:

  • ,本视频内容较全,但确实了一部分结构化学习内容;
  • ,本视频的 P31-35 是关于 SVM 以及结构化学习的内容,P38 是关于集成学习的科普。

此外,李老师的全部课程汇总于李老师的油管频道,可自行检索。

台大机器学习2020的课程主页:

课程章节的汇总

我对于课程的学习顺序如下。

一、基础理论

  • 从宝可梦(一部训练神奇动物的动画)出发,举了一个回归的例子,讲解了深度学习的基本思路 - 建模、定义用于优化的损失函数loss、梯度下降
  • 误差与模型选择的初步讨论:
  • 梯度下降相关知识,最后用帝国时代我的世界两款电子游戏举例,直接把我路转粉:
  • 由助教讲解,目的为介绍各种优化器,如 Adam 等:
  • 由一个分类任务,由高斯分布的拟合,从数学上不枯燥地引出为什么使用 wx+b 形式以及 Sigmoid ,整节课一气呵成,强烈推荐:
  • 基于上节课内容,引出交叉熵等概念,接着,从单个逻辑回归的局限性,生动地展示出“特征变换”这一做法,并引出“神经网络”这一概念,强烈推荐:
  • 深度学习简介:
  • 神经网络反向传播到底是怎么计算的,请放心地去学这节课,即便你线性代数基础很差,配合李老师的幻灯片与引导,你很难听不懂:
  • 激活函数、Maxout、正则、剪枝/Dropout等等技巧性内容:
  • 本节课承接 Brief Introduction of Deep Learning 内容,开始论述,为什么不是“广度神经网络”,而是“深度神经网络”:
  • 由助教讲解,关于PyTorch使用:

前11节课,我记笔记的方式不是很成熟,尤其是前几节课,考虑到自己已经有了一定经验,甚至没怎么记录。在之后的课程中,我逐渐摸索出一套记笔记的规范,并且力求笔记对课程内容的完整描述,让自己以后重温时,可以起到“快速检索”的效果。

二、基本的网络模型

  • 卷积神经网络,李老师对于卷积神经网络有独特的总结,是从案例的角度出发的,并且与全连接层做了直观的对比,强烈推荐:
  • 由助教讲解,图神经网络:
  • 循环神经网络,其实在油管上,这一部分被李老师安排在了结构化学习之后,但是现在学也不影响:

这一部分属于深度学习的常识,我以前一直是只会掉包,但不知其所以然。现在懂了一些。

三、自然语言处理/序列相关

  • 词嵌入:
  • Transformer:
  • ELMO, BERT, GPT:
  • 由助教讲解的 Transformer :

李老师所在的实验室就是研究自然语言与语音识别这类序列问题的,这部分是李老师的拿手好戏。对于深度学习初学者,了解这些知识一定不亏,不信的话,去看腾讯广告算法大赛。

四、无监督学习

  • 线性模型、主成分分析与推荐算法常用到的矩阵分解:
  • 嵌入与降维可视化模型:
  • 自编码技术:
  • 深度生成模型:
  • 特征分解等技术,有一些生成对抗网络的影子了:
  • 由助教讲解,关于自监督学习的三大思想,主要集中在文本问题的 BERT 变体上:

五、生成对抗网络

  • 基本思想:
  • 条件生成对抗网络:
  • 无监督条件生成对抗网络:
  • 生成对抗网络中的统计与理论:
  • 生成对抗网络中的分布距离的数学基础:
  • 关于生成对抗网络中的一些技巧:
  • 生成对抗网络一些其他变体,与特征提取相关:
  • 生成对抗网络在“修图”领域的一些神奇技术:
  • 生成对抗网络与序列问题:
  • 生成对抗网络的评价:
  • 由助教讲解,一些其他模型:

六、元学习

  • 对参数初始化的学习:
  • 对梯度下降的学习:
  • 其他关于元学习的技术:
  • 由助教讲解,关于元学习的一次大概述:

七、强化学习

  • 对强化学习的简介:
  • 策略梯度及其变种:
  • Q学习及其变种:
  • 行动家-评判家、系数奖励、模仿学习:
  • 助教讲解的更多强化学习的内容:

八、结构化学习

  • 简介与线性模型:
  • 结构化支持向量机:
  • 序列问题中的结构化模型,如隐马尔可夫模型、条件随机场:

九、其他领域

  • 半监督学习,你可以在这门课中领会到李老师的教学功力,他用近朱者赤,近墨者黑去芜存菁,化繁为简这类语句抽象出不同的学习的核心思想,妙哉:
  • 可解释性机器学习:
  • 由助教讲解的可解释性机器学习:
  • 机器学习对抗攻击模型:
  • 由助教讲解的机器学习对抗攻击模型:
  • 模型压缩:
  • 由助教讲解的模型压缩,以知识蒸馏为主:
  • 由助教讲解的模型压缩,以模型剪枝为主:
  • 关于生成模型、注意力模型等:
  • 异常点检测:
  • 由助教讲解,关于异常点检测的新技术:
  • 迁移学习:
  • 由助教讲解的领域适配:
  • 终身学习:
  • 由主教讲解终身学习:
  • 支持向量机:
  • 集成学习:

课程总结以及我的下一步学习计划

如上,我分为了 9 个大类。被归为第 9 类“其他领域”的知识,有些是我认为李老师没有“用全力讲解”的部分,更多地,是去理解其核心思想,把这个看作李老师精心准备的超高质量综述就好。总之,李老师系统总结了大量论文的成果,这有利于我们入手任意一门技术。

李老师的课程有明显的“缺点”:

  • 比如,在强化学习部分,没有提及“马尔可夫过程”、或者“贝尔曼方程”,这些都是强化学习可以收敛的理论基础——显然,李老师为我们选择性跳过了些实践中用不到的内容。或者说,李老师并不准备为强化学习预留大量课时,因此,选择性地跳过了一些基础理论。

但是瑕不掩瑜,看过李老师做理论证明、循序渐进、矩阵运算的同学都知道:这么多课听下来,真的赚大了。

现在已经拿到“深度学习与机器学习入场券”,我的下一步计划是,实践、实践与实践。

转载地址:http://itlxf.baihongyu.com/

你可能感兴趣的文章
一道腾讯笔试题的思路
查看>>
【动态规划】每对顶点之间的最短路径之Floyd-Warshall算法
查看>>
2020BATJ面试系列:145个技术题高端技术题,助你拿offer!
查看>>
从简历被拒,到斩获字节跳动offer,这份学习集合功不可没!
查看>>
Android自定义view系列:手撸一个带点儿科技感的仪表盘!
查看>>
Flutter 学习路线图!跨平台开发必备,不可错过的Flutter进阶历程!
查看>>
使用libnet, libpcap模拟一个交换机
查看>>
克拉克:科幻小说黄金时代随他而去
查看>>
AVR-GCC里定义的API
查看>>
关注地震,关爱灾民......
查看>>
Compiling FlightGear 1.0.0 with Visual C++.net 2005
查看>>
书法之美--篆书在线查询
查看>>
Win XP中通过安全策略关闭端口
查看>>
现在的linux内核是谁写的
查看>>
10年编程无师自通[转]
查看>>
10年编程无师自通[转]
查看>>
VMWare 6 and linux(Ubuntu): vmmon compile error
查看>>
VB.NET中实现IEnumerator接口
查看>>
[C++]C++的函数重载
查看>>
用Visio绘制switch-case流程图
查看>>