查看“5.1算法原理”的源代码
←
5.1算法原理
跳转至:
导航
,
搜索
因为以下原因,您没有权限编辑本页:
您所请求的操作仅限于该用户组的用户使用:
用户
您可以查看与复制此页面的源代码。
线性回归是机器学习中最基本的一个算法,但是那些所谓的效果很好的算法也无非是从这些基础算法慢慢演变而来。 线性回归包括一元线性回归和多元线性回归,一元的是只有一个x和一个y。多元的是指有多个x和一个y。 下面我只讲下一元的,多元只是将y=mx+b 变成了y=m1x1+m2b2+b 一元线性回归其实就是去找到一条直线,这条直线能以最小的误差(Loss)来拟合数据。 [[文件:AIred002.jpg]] 怎么来表示误差呢? [[文件:AIred003.jpg]] 如上图所示,横坐标表示x,纵坐标表示y。我们要找的就是图中的这条直线。我们要去找到这条直线,大家可以想象,我们肯定希望找到的那条线,距离每个点都很近,最好所有的点上都在这条线上,但是一条直线去拟合所有的点都在这条直线上肯定不现实,所以我们希望这些点尽量离这条直线近一点。即去找每个点和直线的距离 [[文件:AIred004.jpg]] 最小的那条线,为了简单起见,将绝对值转化为平方,那么误差可以表示为[[文件:AIred005.jpg]] ,这里i表示第i个数据,N表示总的样本个数。一般我们还会把Loss求和平均,来当作最终的损失,即 [[文件:Aired006.jpg]]
返回至
5.1算法原理
。
导航菜单
个人工具
登录
命名空间
页面
讨论
变种
视图
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
帮助
工具
链入页面
相关更改
特殊页面
页面信息