各位大佬好 ,这里是阿川的博客,祝您变得更强

在这里插入图片描述 个人主页在线OJ的阿川

大佬的支持和鼓励,将是我成长路上最大的动力在这里插入图片描述

阿川水平有限,如有错误,欢迎大佬指正在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

Python 初阶
Python–语言基础与由来介绍
Python–注意事项
Python–语句与众所周知
数据清洗前 基本技能
数据分析—技术栈和开发环境搭建
数据分析—Numpy和Pandas库基本用法及实例
回归模型前 必看
数据分析—三前奏:获取/ 读取/ 评估数据
数据分析—数据清洗操作及众所周知
数据分析—数据整理操作及众所周知
数据分析—统计学基础及Python具体实现
数据分析—数据可视化Python实现超详解
数据分析—推断统计学及Python实现

回归模型机器学习中很重要的一个数学模型
机器学习

  • 简单线性回归
  • 多元线性回归
  • 逻辑回归

在这里插入图片描述

线性回归模型简介

相关关系

  • 正相关
  • 负相关
  • 不相关

在这里插入图片描述

相关系数r

  • 研究变量之间 线性关系相关程度
    • 即衡量已知数据相关性
  • 接近1,表示越接近线性正相关
  • 接近-1,表示越接近线性负相关
  • 接近0,表示越接近线性不相关

在这里插入图片描述

r = n ∑ x y − ( ∑ x ) ( ∑ y ) [ n ∑ x 2 − ( ∑ x ) 2 ] [ n ∑ y 2 − ( ∑ y ) 2 ] r=\frac{n\sum xy-(\sum x)(\sum y)}{\sqrt{[n\sum x^2-(\sum x)^2][n\sum y^2-(\sum y)^2]}} r=[nx2(x)2][ny2(y)2] nxy(x)(y)
r皮尔逊积矩相关系数,表示两个变量间的线性关系强度方向,其阈值为[-1,1]
x:通常作为自变量
y:通常作为因变量
∑ \sum 求和符号,表示加和一系列数值

多元线性回归中发现两个自变量相关系数r绝对值大去除其中的一个自变量
例如:超过0.8或0.9可以考虑移除其中一个

  • 因为一般认为相关系数大于0.8及以上,会导致严重共线性问题

共线性问题

  • 若本身两个变量间高度相关的,而处理过程中将两个变量认为不相关/相互独立的,会导致 系数估计不准确,从而对预测产生影响
    例如:若男性和女性两个变量分别设置两个虚拟变量,会导致共线性问题
    • 因为男和女这两个变量本身是高度相关的,所以设置一个虚拟变量(1设成男,0设成女或者1设成男,0设成女),且当知道N-1虚拟变量值时,可以直接推导出第n个值说明他们之间存在相关联设第n个虚拟变量是没必要的,会导致共线性问题

回归线

  • 拟合图中的数据点,尽可能的去靠近图中每个数据点的直线

在这里插入图片描述

残差

  • 回归线的实际观测值与估计值(拟合值)之间的

在这里插入图片描述

拟合目标

  • 所有残差平方和最小

更专业的术语

  • 最小二乘法
    • 通过最小化残差平方和来找到最好的模型参数

除了相关系数r 也要关注 p值
独立双样本t/z检验中有一个叫做p值
p值小拒绝原假设

  • 自变量对因变量有统计显著性影响
    • 自变量对因变量有显著预测作用

p值大接受原假设

  • 自变量对因变量无统计显著性影响
    • 自变量对因变量无显著预测作用

在这里插入图片描述

p值大的自变量可选择剔除(因为该自变量对因变量无显著预测作用),再进行多轮拟合,再反复调整去求截距和系数,可以降低对预测值的干扰误导

线性回归模型预测拟合度

R2 衡量线性回归模型整体预测拟合度

  • R2范围值 [0,1]
    • 接近 1,说明模型的预测值与实际观察值相差越小,使得线性回归模型整体和实际高拟合
    • 接近 0,说明模型的预测值与实际观察值相差越大,使得线性回归模型整体和实际低拟合

在这里插入图片描述

R 2 = 1 − ∑ i = 1 n ( y i − y ^ i ) 2 ∑ i = 1 n ( y i − y ˉ ) 2 R^2=1-\frac{\sum_{i=1}^{n} (y_i-\hat{y}_i)^2} {\sum_{i=1}^{n}(y_i-\bar{y})^2} R2=1i=1n(yiyˉ)2i=1n(yiy^i)2
y i y_i yi第i个观测因变量值
y ˉ \bar{y} yˉ所有观测因变量值的平均值
y ^ i \hat{y}_i y^i:由模型给出第i个观测的观测因变量值

虚拟变量

在线性回归模型中表示分类变量引入虚拟变量

  • 只取0和1这两个值的变量

根据分类的类别,若有n种类型,则引入n-1个虚拟变量

  • 引入n个虚拟变量,则会引起共线性问题

pd.get_dummies(DataFrame名, columns=[" 分类变量"], dtype=int, drop_first)分类变量 转化虚拟变量0/1,且删除 第1个引用的虚拟变量(从而保持 n-1个虚拟变量
在这里插入图片描述

逻辑回归模型简介

逻辑回归

  • 处理二分类问题在零和一之间
    • 设置阈值,一般为0.5,但可以根据具体情况来调整阈值

在这里插入图片描述

拟合程度

最大似然估计

  • 需要用到数值优化算法(例如其中的梯度下降等)来寻找最优参数值

在这里插入图片描述

需要排除 高度相关的变量否则导致数值优化算法无法收敛的问题,无法计算模型参数值

最优参数值

  • 在这参数值下观察到的样本出现概率是最大的,从而让模型预测和样本之间差距越小

求出最优参数值看p值
自变量系数值,然后自然常数e 求系数的那个值的次方反映的是自变量对因变量的倍数影响
在这里插入图片描述

线性回归Python具体实现

简单线性回归 y=b0+mx

  • 预测未知数据 自变量值预测因变量值
    • 因变量受到一个自变量影响

在这里插入图片描述

多元线性回归 y=b0+b1x+b2x+…+bnxn

  • 因变量 受到 多个自变量影响
    • 自变量应该相互独立不应该高度相关
      • 否则导致系数估计不准确

在这里插入图片描述

y = b 0 + m x y= b_{0}+mx y=b0+mx
或者
y = b 0 + b 1 x + + b 2 x + . . + b n x n y= b_{0}+b_1x++b_2x+..+b_nx_n y=b0+b1x++b2x+..+bnxn
b = ∑ y i − m ( ∑ x i ) n b=\frac{\sum y_i-m(\sum x_i)}{n} b=nyim(xi)
m = n ( ∑ x i y i ) − ( ∑ x i ) n ( ∑ x i 2 ) − ( ∑ x i ) 2 m=\frac{n(\sum x_iy_i)-(\sum x_i)}{ n(\sum x_i^2)-(\sum x_i)^2} m=n(xi2)(xi)2n(xiyi)(xi)
y因变量
b 0 b_0 b0y轴截距,可以视为 与常量1相乘

m, b 1 b_1 b1, b 2 b_2 b2 b n b_n bn斜率也称系数
x自变量
x i x_i xi第i个观测自变量值
y i y_i yi第i个观测因变量值

安装 statsmodels库,并引入模块import statsmodels.api as sm

在这里插入图片描述

在这里插入图片描述

y=DataFrame名[" "] 提取因变量
x=DataFrame名.drop[" ",axis=1] 删除掉因变量从而提取自变量
或者
x=DataFrame名[[" "]] 选择提取自变量

在这里插入图片描述

自变量1.corr(自变量2) 验证自变量间相关性

  • 结果越接近1 说明越相关
  • 结果越接近0 说明越不相关
    或者

DataFrame名.corr() 自动对各变量之间找相关系数

在这里插入图片描述

.abs() 得到所有元素绝对值

  • 还可以搭配热力图heatmap,一眼看出颜色深浅

在这里插入图片描述

相关系数0.8作为阈值,进行筛选相关自变量确保不会导致共线性问题然后开始求截距
sm.add_constant(参数) 将截距常量1纳入模型

在这里插入图片描述

sm.OLS(因变量,自变量) 最小二乘法
.fit() 对数据进行拟合并生成一个实例
.summery() 对实例进行展示
在这里插入图片描述
当得到线性回归模型后进行预测

pd.Categorical(DataFrame[分类变量], categories=[" "])分类变量 转化为category类型

  • categories 该参数可以告诉系统虚拟变量的全部类型

get_dummies()分类变量转化虚拟变量

在这里插入图片描述

线性回归模型.predict(传入包含所有自变量的DataFrame) 预测模型

  • 要求每列都是 模型中的自变量(不多不少),这样每行才是一个要预测的观测值

在这里插入图片描述

结构流程图
在这里插入图片描述

在模型中没有标准答案,去尝试调整验证模型

逻辑回归Python具体实现

逻辑回归 l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1pp)=b0+b1x+b2x+..+bnxn

在这里插入图片描述

l o g ( p 1 − p ) = b 0 + b 1 x + b 2 x + . . + b n x n log(\frac{p}{1-p})=b_0+b_1x+b_2x+..+b_nx_n log(1pp)=b0+b1x+b2x+..+bnxn
p = 1 1 + e − ( b 0 + b 1 x + b 2 x + . . + b n x n ) p=\frac{1}{1+e^{-(b_0+b_1x+b_2x+..+b_nx_n)}} p=1+e(b0+b1x+b2x+..+bnxn)1
p因变量y=1的概率( y是二元变量,只能取0或1
x 1 x_1 x1, x 2 x_2 x2, x 3 x_3 x3,… x n x_n xn预测变量
b 0 b_0 b0, b 1 b_1 b1, b 2 b_2 b2,…, b n b_n bn回归系数
先导入模板import statsmodels.api as sm

在这里插入图片描述

pd.get_dummiesDataFrame, columns=[" 分类变量"], dtype=int, drop_first)将分类变量转化为虚拟变量
.corr() 排除共线性问题
.abs() 转化为绝对值
sm.add_constant() 截距常量1纳入模型

在这里插入图片描述

sm.Logit(因变量,自变量) 最大似然估计
.fit() 对数据进行拟合并生成实例
.summary() 查看输出
先看p值看哪些变量没有显著预测作用,一般设置阈值0.05再看 codf系数,要将该系数翻译成自然语言e的倍数
np.exp() 计算e的多少次方
.predict() 预测模型
在这里插入图片描述

在这里插入图片描述

项目实战一

项目实战-线性预测房屋价格数据,已上传到GitHub
本人CSDN博客主页资源上有该项目实战

项目简介:

线性预测房屋价格加清洗评估加分析-项目实战5-分析房屋价格数据-ipynb格式-Python语法-用Jupyter notebook打开
用来练习 多元线性回归及预测和清洗评估和分析,整个流程特别清晰
每个步骤均用Makedown编辑器进行编辑文字,每一步都给出了清晰的代码以及压缩包中给出了相应的数据集
可以按照步骤一步一步进行模仿,理解其中的思维逻辑,然后上手进行操作,在操作的过程中不断思考
等能力有了很大提升之后,就可以慢慢独立思考从事项目了

项目实战二

项目实战-逻辑回归预测 船上人员幸存情况数据,已上传到GitHub
本人CSDN博客主页资源上有该项目实战

项目简介:

逻辑回归预测船上人员幸存情况 加清洗评估加分析—项目实战6—分析船上人员幸存数据—ipynb格式—Python语法—用Jupyter notebook打开
用来练习 逻辑回归预测船上人员幸存情加清洗评估加分析,整个流程特别清晰
每个步骤均用Makedown编辑器进行编辑文字,每一步都给出了清晰的代码以及压缩包中给出了相应的数据集
可以按照步骤一步一步进行模仿,理解其中的思维逻辑,然后上手进行操作,在操作的过程中不断思考
等能力有了很大提升之后,就可以慢慢独立思考从事项目了

好的,到此为止啦,祝您变得更强

在这里插入图片描述
想说的话

实不相瞒,这篇博客写了9个小时以上(加上自己学习了三遍和纸质笔记,共十一小时吧),很累希望大佬支持

在这里插入图片描述

道阻且长 行则将至
个人主页:在线OJ的阿川大佬的支持和鼓励,将是我成长路上最大的动力 在这里插入图片描述
Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐