博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
回归算法--线性回归算法原理
阅读量:2427 次
发布时间:2019-05-10

本文共 667 字,大约阅读时间需要 2 分钟。

1.线性回归

回归一词最早由英国科学家弗朗西斯·高尔顿(Francis Galton)提出。他发现一个趋势:父母高,儿女也高;父母矮,儿女也矮。但给定父母的身高,儿女辈的平均身高却趋向于或者“回归”到全体人口的平均身高。换句话说,即使父母双方都异常高或者异常矮,儿女的身高还是会趋向于人口总体的平均身高。这也就是所谓的普遍回归规律。

现代意义上的回归分析用来预测两种两种以上变量间相互依赖的定量关系。其中被预测的变量叫因变量,被用来进行预测的变量叫自变量。

当自变量与因变量之间存在线性关系时则叫做线性回归,按照自变量个数的多少可以将线性回归分为一元线性回顾与多元线性回归。以下图为例,自变量为房屋面积,因变量为房屋价格,通过找到一条直线去拟合数据点的分布趋势的过程,就是线性回归的过程。
在这里插入图片描述

2. 一元线性回归

假设一元线性方程为 y = a x + b (1) y = ax + b\tag{1} y=ax+b(1)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

3.多元线性回归

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.线性回归算法的衡量指标
  1. 均方误差(RSE)
    均方根误差等于所有预测值与真实值误差平方和再除以样本数量。

在这里插入图片描述

  1. 均方根误差(RMSE)

    均方根误差等于均方误差的算术平方根。
    在这里插入图片描述

  2. 平均绝对误差(MAE)

    平均绝对误差等于预测值与真实值的误差绝对值之和再除以样本数量。
    在这里插入图片描述

  3. R方(R^2)

    在这里插入图片描述
    在这里插入图片描述
    R^2的取值小于等于1。取值越大,回归模型拟合的效果越好。取值越小,回归模型拟合的效果越差。

参考

https://blog.csdn.net/weixin_42180810/article/details/81266777

你可能感兴趣的文章
“再见,微软!”
查看>>
ARM 发布新一代 CPU 和 GPU,实现 20% 性能提升!
查看>>
技术引路:机器学习仍大有可为,但方向在哪里?
查看>>
漫画:如何给女朋友解释什么是编译与反编译
查看>>
刷屏了!这篇 Python 学习贴,90% 的程序员都用的上!
查看>>
漫画:如何给女朋友解释什么是适配器模式?
查看>>
程序员又迎来一个好消息! | 每日趣闻
查看>>
Mac 被曝存在恶意漏洞:黑客可随意调动摄像头,波及四百万用户!
查看>>
拒绝与其他码农一致!CSDN定制T让你成为最靓的仔
查看>>
程序员情商低?看完这 4 类程序员我懂了!
查看>>
《长安十二时辰》里你不能不知道的 IT 技术 | 每日趣闻
查看>>
程序员爬取 3 万条评论,《长安十二时辰》槽点大揭秘!
查看>>
一年参加一次就够,全新升级的 AI 开发者大会议程出炉!
查看>>
基于 XDanmuku 的 Android 性能优化实战
查看>>
基于嵌入式操作系统的物联网安全
查看>>
一个只有 99 行代码的 JS 流程框架
查看>>
移动周刊第 186 期:移动 App 客户端性能优化、iOS 开源库源码解析
查看>>
包学会之浅入浅出 Vue.js:开学篇
查看>>
JavaScriptCore 全面解析 (上篇)
查看>>
移动周刊第 187 期:App 模块化实战经验总结
查看>>