Professional Documents
Culture Documents
七月在线 寒老师
2016年8月6日
主要内容
n 线性回归与拟合
1.定义与问题引入
2.损失函数,梯度下降
n 从线性回归到分类,逻辑回归
1.线性回归与分类
2.决策边界与逻辑回归
3.梯度下降与最优化
n 多分类,Softmax与LinearSVM
1.多分类问题
2.Hinge Loss与linearSVM
3.交叉熵损失与Softmax
1
regression与线性回归
o 何为线性回归
n 有监督学习 => 学习样本为
n 输出/预测的结果yi为连续值变量
n 需要学习映射
n 假定输入x和输出y之间有线性相关关系
o 测试/预测阶段
n 对于给定的x,预测其输出
2
线性回归
o 思考一个简单的例子
o 你让一个六年级的孩子在不问同学具体体重多少的情况
下,把班上的同学按照体重从轻到重排队。这个孩子会
怎么做呢?
o 他有可能会通过观察大家的身高和体格来排队。
3
单变量线性回归
面积 价格
(x,平方英尺)
(y,千美元)
2104
460
1416
232
1534
315
852
178
…
…
4
线性回归
5
6
线性回归
8
线性回归
o 损失函数(loss function)
o 我们要找到最好的权重/参数[ ]=
o 怎么去衡量“最好”?
o 我们把x到y的映射函数f记作 的函数
o 定义损失函数为:
3
2
1
0
0 1 9
2 3
线性回归
o 最小化损失函数(loss function)
3
2
1
0
0 1 2 3
10
线性回归
o 最小化损失函数(loss function)
11
线性回归
o 梯度下降
o 逐步最小化损失函数的过程
o 如同下山,找准方向(斜率),每次迈进一小步,直至山底
12
线性回归
o 梯度下降
o 逐步最小化损失函数的过程
o 如同下山,找准方向(梯度),每次迈进一小步,直至山底
13
线性回归
o 梯度下降
o 逐步最小化损失函数的过程
o 如同下山,找准方向(梯度),每次迈进一小步,直至山底
14
线性回归
o 梯度下降
o 假如现在有n个特征/变量xj(j=1…n)
15
线性回归
o 学习率与梯度下降
16
线性回归与分类
o 有时候需要解决分类问题
o 线性回归 + 阈值?
20
线性回归与分类
o 不够坚定,受噪声影响大
21
线性回归 → 逻辑回归
o 如何从线性回归(输出连续值)→合理的分类?
22
线性回归 → 逻辑回归
o Sigmoid是一个什么函数?
22
分类与逻辑回归
o 判定边界
23
逻辑回归
o 线性判定边界
3
若
则
2
1
1
2
3
逻辑回归
o 损失函数
28
逻辑回归
o 损失函数
o 我们希望是下面这个样子的
29
逻辑回归
o 损失函数
If y = 1 If y = 0
0 1 0 1
30
逻辑回归
o 损失函数
别忘了正则化项
31
逻辑回归
o 梯度下降求最小值
32
逻辑回归
o 二分类与多分类
x2
x2
x1 x1
33
多分类
33
多分类:linearSVM
o 损失函数:hinge loss/支持向量机损失
Ø 对于训练集中的第i个样本数据xi
Ø 在W下会有一个得分结果向量f(xi,W)
Ø 第j类的得分为我们记作f(xi,W)j
Ø 则在该样本上的损失我们由下列公式计算得到
33
多分类:linearSVM
o 损失函数:hinge loss/支持向量机损失
Ø 因为是线性模型,因此可以简化成
Ø 加正则化项
33
多分类:Softmax
o 损失函数:交叉熵损失(softmax分类器)
Ø 对于训练集中的第i个样本数据xi
Ø 在W下会有一个得分结果向量fyi
Ø 则损失函数记作
或者
实际工程中一般这么算:
33
多分类:LinearSVM vs Softmax
33
多分类实验与比较
请参见课上示例
33
感谢大家!
恳请大家批评指正!