吴恩达机器学习课程笔记:模型描述、假设函数、代价函数

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

1.吴恩达机器学习课程笔记模型描述、假设函数、代价函数

吴恩达机器学习课程笔记模型描述
吴恩达机器学习课程笔记代价函数

仅作为个人学习笔记若各位大佬发现错误请指正

什么是模型

机器学习模型简单来说即是学习数据特征与标签的关系或者学习数据特征内部的规律的一个函数。摘自机器学习中的模型到底是指什么

先选一个模型然后根据数据样本学习不断调整优化参数得到最优参数最终获得决策函数之后使用该决策函数进行预测

视频中以回归问题为例介绍什么是模型如何优化参数
例子房价预测

样本数据如下
符号解释m代表样本容量、x代表输入值特征、y代表输出值

根据经验先大概选一个初始模型假设函数这里选的是单变量线性回归模型

假设函数 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x
不同的参数对应不同的函数

我们怎样调整参数才能使得模型更好地符合样本数据也就是如何在整体上使得预测值 h ( x ) h(x) h(x)与样本值y的距离更近由此引入最小二乘法
minimize  J ( θ 1 ) = minimize  1 2 m ∑ i = 1 m ( h ( i ) ( x ) − y ( i ) ) 2 \text{minimize}\ J(\theta_1)=\text{minimize}\ \frac{1}{2m}\sum_{i=1}^{m}\left(h^{(i)}(x)-y^{(i)}\right)^2 minimize J(θ1)=minimize 2m1i=1m(h(i)(x)y(i))2
注右上角标代表第 i i i个样本数据、m代表样本容量
我们通过最小化代价函数 J ( θ 1 ) J(\theta_1) J(θ1)来寻找最优参数
假设函数 h ( i ) ( x ) = θ 1 x h^{(i)}(x)=\theta_1x h(i)(x)=θ1x的函数值为模型预测值、样本数据 y ( i ) y^{(i)} y(i)为真实值

例如样本数据11、22、33根据这些样本数据我们大致认为截距为0的函数可以较好拟合这些数据所以我们就假设只有一个参数斜率
我们首先假设参数 θ 1 = 1 \theta_1=1 θ1=1则假设函数为 h ( i ) ( x ) = θ 1 x = x h^{(i)}(x)=\theta_1x=x h(i)(x)=θ1x=x
x = 1 x=1 x=1代入假设函数 h ( 1 ) ( 1 ) = 1 h^{(1)}(1)=1 h(1)(1)=1
x = 2 x=2 x=2代入假设函数 h ( 2 ) ( 2 ) = 2 h^{(2)}(2)=2 h(2)(2)=2
x = 3 x=3 x=3代入假设函数 h ( 3 ) ( 3 ) = 3 h^{(3)}(3)=3 h(3)(3)=3
将样本数据代入代价函数计算 y ( 1 ) = 1 、 y ( 2 ) = 2 、 y ( 3 ) = 3 y^{(1)}=1、y^{(2)}=2、y^{(3)}=3 y(1)=1y(2)=2y(3)=3计算结果代价函数值为 0 0 0以参数 θ 1 \theta_1 θ1为横轴以代价函数值为纵轴绘制图像通过不断更新参数 θ 1 \theta_1 θ1得到不同的代价函数值最终可以得到一个最小代价此时代价函数值对应的参数 θ 1 \theta_1 θ1的值便是最优值

我们将参数 θ 1 \theta_1 θ1调整为 0.5 0.5 0.5并计算代价函数值

我们将参数 θ 1 \theta_1 θ1调整为 0 0 0并计算代价函数值

通过对参数不断调整我们可以最终在以参数 θ 1 \theta_1 θ1为横轴以代价函数值为纵轴的函数图像中找到代价最小时对应的参数值此时的参数值就是最优值
当样本数据如下图我们大致认为假设函数有两个参数 θ 0 \theta_0 θ0(截距)、 θ 1 \theta_1 θ1(斜率)假设函数为 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x

当我们有两个参数需要确定时对应的代价函数为 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) J(θ0,θ1)
minimize  J ( θ 0 , θ 1 ) = minimize  1 2 m ∑ i = 1 m ( h ( i ) ( x ) − y ( i ) ) 2 \text{minimize}\ J(\theta_0,\theta_1)=\text{minimize}\ \frac{1}{2m}\sum_{i=1}^{m}\left(h^{(i)}(x)-y^{(i)}\right)^2 minimize J(θ0,θ1)=minimize 2m1i=1m(h(i)(x)y(i))2
注右上角标代表第 i i i个样本数据、 m m m代表样本容量
我们通过最小化代价函数 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) J(θ0,θ1)来寻找最优参数
假设函数 h ( i ) ( x ) = θ 0 + θ 1 x h^{(i)}(x)=\theta_0+\theta_1x h(i)(x)=θ0+θ1x的函数值为模型预测值、样本数据 y ( i ) y^{(i)} y(i)为真实值
首先给两个参数初始值并计算对应代价函数值而后对两个参数值进行调整每次调整都计算出对应的代价函数值最终得到类似下图右侧的函数图像 z z z轴为代价函数值 x x x轴与 y y y轴分别为两个参数我们可以在此图像中找到最小的代价函数值此值对应的参数即为最优参数我们便得到了符合以下样本数据的最优模型 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x对应的最优值代入两个参数

当然我们也可以用等高线图来表示代价函数图像
同一个椭圆上的所有点其代价函数值相等
不同椭圆上的点代价函数值不同颜色代表了代价函数值的高低从下图中我们可以得到最内部的点对应的代价函数值最小通过此值我们找到了对应两个参数的值

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: 机器学习