相关分析与回归分析的联系与区别

问题描述:

相关分析与回归分析的联系与区别

满意回答: 回归分析与相关分析的联系研究在专业上有一定联系的两个变量之间是否存在直线关系以及如何求得直线回归方程等问题需进行直线相关和回归分析.从研究的目的来说若仅仅为了了解两变量之间呈直线关系的密切程度和方向宜选用线性相关分析若仅仅为了建立由自变量推算因变量的直线回归方程宜选用直线回归分析.
从资料所具备的条件来说作相关分析时要求两变量都是随机变量如人的身长与体重、血硒与发硒作回归分析时要求因变量是随机变量自变量可以是随机的也可以是一般变量(即可以事先指定变量的取值如用药的剂量).
在统计学教科书中习惯把相关与回归分开论述其实在应用时当两变量都是随机变量时常需同时给出这两种方法分析的结果另外若用计算器实现统计分析可用对相关系数的检验取代对回归系数的检验,这样到了化繁为简的目的.
回归分析和相关分析都是研究变量间关系的统计学课题它们的差别主要是
1、在回归分析中y被称为因变量处在被解释的特殊地位而在相关分析中x与y处于平等的地位即研究x与y的密切程度和研究y与x的密切程度是一致的
2、相关分析中x与y都是随机变量而在回归分析中y是随机变量x可以是随机变量也可以是非随机的通常在回归模型中总是假定x是非随机的
3、相关分析的研究主要是两个变量之间的密切程度而回归分析不仅可以揭示x对y的影响大小还可以由回归方程进行数量上的预测和控制.
回归分析和相关分析的区别
回归分析和相关分析是互相补充、密切联系的相关分析需要回归分析来表明现象数量关系的具体形式而回归分析则应该建立在相关分析的基础上.
主要区别有:一,在回归分析中,不仅要根据变量的地位,作用不同区分出自变量和因变量,把因变量置于被解释的特殊地位,而且以因变量为随机变量,同时总假定自变量是非随机的可控变量.在相关分析中,变量间的地位是完全平等的,不仅无自变量和因变量之分,而且相关变量全是随机变量. 二,相关分析只限于描述变量间相互依存关系的密切程度,至于相关变量间的定量联系关系则无法明确反映.而回归分析不仅可以定量揭示自变量对应变量的影响大小,还可以通过回归方程对变量值进行预测和控制.
相关分析和回归分析是极为常用的2种数理统计方法在科学研究领域有着广泛的用途.然而由于这2种数理统计方法在计算方面存在很多相似之处且在一些数理统计教科书中没有系统阐明这2种数理统计方法的内在差别从而使一些研究者不能严格区分相关分析与回归分析.
最常见的错误是:用回归分析的结果解释相关性问题.例如作者将“回归直线曲线图”称为“相关性图”或“相关关系图”将回归直线的R2(拟合度或称“可决系数”)错误地称为“相关系数”或“相关系数的平方”根据回归分析的结果宣称2个变量之间存在正的或负的相关关系.
相关分析与回归分析均为研究2个或多个变量间关联性的方法但2种数理统计方法存在本质的差别即它们用于不同的研究目的.相关分析的目的在于检验两个随机变量的共变趋势即共同变化的程度
回归分析的目的则在于试图用自变量来预测因变量的值. 在相关分析中两个变量必须同时都是随机变量如果其中的一个变量不是随机变量就不能进行相关分析这是相关分析方法本身所决定的.对于回归分析其中的因变量肯定为随机变量这是回归分析方法本身所决定的而自变量则可以是普通变量有确定的取值也可以是随机变量. 如果自变量是普通变量即模型Ⅰ回归分析采用的回归方法就是最为常用的最小二乘法.如果自变量是随机变量即模型Ⅱ回归分析所采用的回归方法与计算者的目的有关.在以预测为目的的情况下仍采用“最小二乘法”但精度下降—最小二乘法是专为模型Ⅰ设计的未考虑自变量的随机误差在以估值为目的如计算可决系数、回归系数等的情况下应使用相对严谨的方法如“主轴法”、“约化主轴法”或“Bartlett法”.显然对于回归分析如果是模型Ⅱ回归分析鉴于两个随机变量客观上存在“相关性”问题只是由于回归分析方法本身不能提供针对自变量和因变量之间相关关系的准确的检验手段因此若以预测为目的最好不提“相关性”问题若以探索两者的“共变趋势”为目的应该改用相关分析.如果是模型Ⅰ回归分析就根本不可能回答变量的“相关性”问题因为普通变量与随机变量之间不存在“相关性”这一概念问题在于大多数的回归分析都是模型Ⅰ回归分析.此时即使作者想描述2个变量间的“共变趋势”而改用相关分析也会因相关分析的前提不存在而使分析结果毫无意义.
需要特别指出的是回归分析中的R2在数学上恰好是Pearson积矩相关系数r的平方.因此这极易使作者们错误地理解R2的含义认为R2就是“相关系数”或“相关系数的平方”.问题在于对于自变量是普通变量即其取值有确定性的变量、因变量为随机变量的模型Ⅰ回归分析2个变量之间的“相关性”概念根本不存在又何谈“相关系数”呢更值得注意的是一些早期的教科书作者不是用R2来描述回归效果拟合程度拟合度的而是用Pearson积矩相关系数r来描述.这就更容易误导读者. 随机变量: random variable 定义在一定范围内以一定的概率分布随机取值的变量. 随机变量random variable表示随机现象在一定条件下并不总是出现相同结果的现象称为随机现象各种结果的变量一切可能的样本点.例如某一时间内公共汽车站等车乘客人数电话交换台在一定时间内收到的呼叫次数等等都是随机变量的实例.性质:不确定性和随机性: 随机变量在不同的条件下由于偶然因素影响其可能取各种不同的值具有不确定性和随机性但这些取值落在某个范围的概率是一定的此种变量称为随机变量.随机变量可以是离散型的也可以是连续型的.如分析测试中的测定值就是一个以概率取值的随机变量被测定量的取值可能在某一范围内随机变化具体取什么值在测定之前是无法确定的但测定的结果是确定的多次重复测定所得到的测定值具有统计规律性.随机变量与模糊变量的不确定性的本质差别在于后者的测定结果仍具有不确定性即模糊性. 关于线性回归的问题.为什么一元线性回归的判定系数等于相关系数的平方从各自的公式上看不存在这个关系
难道只是数值近似求推导. 满意回答 其实是关系是这样的相关系数的值=判定系数的平方根符号与x的参数相同.只是你没发现而已.他们用不同的表达式表达出来了.所以不能一眼看出来推导有些复杂. 但是他们在概念上有明显区别相关系数建立在相关分析基础之上研究两个变量之间的线性相关关系.而判定系数建立在回归分析基础之上研究一个随机变量对别一个随机变量的解释程度. 一元回归分析中的决定系数 spss 一元回归分析结果解读 我运用SPSS软件对自变量和因变量进行了回归分析得到以下结果 R=0.378 ADJUSTED R SQUARE=0.058 STD.ERROR OF ESTIMATE=2.51 F=1.672
SIG=0.225 bete=-3.78 t=-1.293 这些都是什么意思啊 18:40 满意回答 R是自变量与因变量的相关系数从r=0.378来看相关性并不密切是否相关性显著由于缺乏sig值无法判断. R square就是回归分析的决定系数说明自变量和因变量形成的散点与回归曲线的接近程度数值介于0和1之间这个数值越大说明回归的越好也就是散点越集中于回归线上.从你的结果来看R2 = 0.058说明回归的不好. Sig值是回归关系的显著性系数当他 0.05说明二者之间用当前模型进行回归没有统计学支持应该换一个模型来进行回归.
其它的不懂我也不看他们. 总之你的回归不好建议换一个模型. 变量之间是非线性的有必要求相关系数吗? 如题要分析变量Z分别与变量X、Y之间的相关关系但是Z与X的散点图呈非线性Z与Y的散点图呈线性我需要比较X、Y两个变量对Z产生的影响.那么分别求Z与X、Z与Y的相关关系数还有意义吗 回答:当研究因变量z与自变量x、y之间的相关关系时应当利用偏相关系数和复相关系数
若z是x,y的函数:z =z(x,y) 1.偏相关系数在z中去掉y的影响算出对x的相关系数就是z对x的偏相关系数由于过程复杂仅简单说一下在z中去掉x的影响算出对y的相关系数就是z对y的偏相关系数.如果这两个偏相关系数的绝对值都接近1表明x、y对z有显著的影响若z对x的偏相关值大对y的值小那么x对z的影响大y对z的影响小. 2.复相关系数在z中去掉噪声全部的除x、y之外的一切干扰算出的相关系数叫复相关系数它的值接近于1表明x、y是对z的主要影响因素除此之外的因素很小. 3.总体判断可用复相关系数个别判断可用偏相关系数 4.对多元函数做相关分析时简单的相关系数作用不大了得采用复、偏相关系数分析. 回答:一般来说生活中各个变量之间的关系没有严格的线性.而相关系数就是说明近似线性的程度.所以有必要求相关系数再判断两个变量之间的关系是否可以看成是近似线性的.所以是有意义的.但是如果完全呈非线性可以一眼看出来那么求不求都无所谓了. 复相关系数定义 一个要素或变量同时与几个要素或变量之间的相关关系. 复相关系数是度量复相关程度的指标它可利用单相关系数和偏相关系数求得.复相关系数越大表明要素或变量之间的线性相关程度越密切. 复相关系数(多重相关系数)多重相关的实质就是Y的实际观察值与由p个自变量预测的值的相关. 前面计算的确定系数是Y与相关系数的平方那么复相关系数就是确定系数的平方根. 复相关系数的计算 复相关系数是测量一个变量与其他多个变量之间线性相关程度的指标.它不能直接测算只能采取一定的方法进行间接测算. 为了测定一个变量y与其他多个变量X1,X2,...,Xk之间的相关系数可以考虑构造一个关于X1,X2,...,Xk的线性组合通过计算该线性组合与y之间的简单相关系数作为变量y与X1,X2,...,Xk之间的复相关系数. 如何消除多重共线性从而计算因变量和各个自变量之间相关系数? 回答:消除多重共线性的方法1.逐步回归2.主成分回归3.零回归~