🖼 人工智能学习总目录

🖼《白话机器学习数学》小结及目录

本章知识小结:

  • 1、最小二乘法、目标函数
  • 2、下降梯度、梯度下降法
  • 3、学习率、更新表达式
  • 4、多项式回归、过拟合、欠拟合
  • 5、多重回归:包含多个变量的回归,写成向量
  • 6、随机梯度下降法、小批量梯度下降法

1、设置问题

基于广告费预测点击量,投入广告费越多,点击率越高

2、定义模型

一个示例模型:

(理想情况下实际数据y和预测数据 fθ(x)一致)
(这样我们的问题就转换成求θ1和θ2,比如θ1=1且θ2=2是,y和fθ(x)偏差过大,所以需要更新两个参数)

所以我们要想方法去求求解二者值,使得预测值和实际值接近或相等。

3、最小二乘法

目的是使误差更小,新建目标函数(记录误差):

对每个训练数据的误差平方和相加后除2,计算E(θ),找E(θ)值最小的θ的问题,是最优化问题

这个E(θ)本身是没有意义的,我们要修改θ的值,使E(θ)越来越小,这种方法是最小二乘法

但是一边修改θ,一边让E(θ)更小太麻烦了,所以我们把目标函数记为g(x),对x求导可以拿到下降梯度

根据导数的符号,在向反方向移动x,g(x)就会自然地沿着最小值方向前进了,这种方法被称为最速下降法梯度下降法

A := B的方法 是说,通过B来定义A。这里的η表示学习率,及趋于最小值的速度。

同理,我们的θ_0和θ_1也可以这样求,目标函数

这里是一个复合函数求偏导,用换参法会更好理解,这里写字不是很方便所以直接一起算了。(这里的fθ(x) = θ0 + θ1*x的)

因为E(θ)对θ其他,其中E(θ)没有θ,有fθ(x),fθ(x)中有θ,所以有下式:

所以θ的更新表达式如下

4、多项式回归

用一次函数拟合二次函数很明显会出现欠拟合的情况,

如果用过高次的函数拟合低次的函数会出现过拟合的情况。

参照上面的方法,我们可以求出更多的θ更新表达式fe

5、多重回归

简单理解就是包含多个变量的回归,不再只有x

这样写显然过于麻烦,我们可以把参数θ、变量x(加了一个1使维度相同)看做向量:

6、随机梯度下降法

可能陷入局部最优,因为学习率η不够大导致只能得到局部最优解。

所以我们可以随机选中数据索引,这里的k是随机索引,以局部误差为基准更新参数

最速梯度下降法更新1次参数,随机梯度下降法可以更新n次

我们可以随机选择m个训练数据的索引的集合为K,以m个点的误差为基础更新参数

这种做法被称为小批量(mini-batch)梯度下降法