1.相关关系与回归方程
(1)相关关系的分类
①正相关:从散点图上看,点分布在从左下角到右上角的区域内;
②负相关:从散点图上看,点分布在从左上角到右下角的区域内.
(2)线性相关关系:从散点图上看,如果这些点从整体上看大致分布在一条直线附近,则称这两个变量之间具有线性相关关系,这条直线叫作回归直线.
(3)回归方程
①最小二乘法:使得样本数据的点到回归直线的距离的平方和最小的方法叫作最小二乘法.
②回归方程:两个具有线性相关关系的变量的一组数据:(x1,y1),(x2,y2),…,(xn,yn),其回归方程为y=bx+a,则b=∑,\s\up6(ni=1a=-b.其中,b是回归方程的斜率,a是在y轴上的截距.=∑,\s\up6(ni=1,
(4)样本相关系数
r=∑,\s\up6(ni=1,用它来衡量两个变量间的线性相关关系.
①当r>0时,表明两个变量正相关;
②当r<0时,表明两个变量负相关;
③r的绝对值越接近1,表明两个变量的线性相关性越强;r的绝对值越接近于0,表明两个变量之间几乎不存在线性相关关系.通常当|r|>0.75时,认为两个变量有很强的线性相关关系.