什么是分层逐步多元回归分析?

作者&投稿:移旺 (若有异议请与网页底部的电邮联系)
逐步回归和层次回归有什么区别~

逐步回归是一种线性回归模型自变量选择方法,其基本思想是将变量一个一个引入,引入的条件是其偏回归平方和经验是显著的。同时,每引入一个新变量后,对已入选回归模型的老变量逐个进行检验,将经检验认为不显著的变量删除,以保证所得自变量子集中每一个变量都是显著的。此过程经过若干步直到不能再引入新变量为止。而“层次回归”则由研究者根据理论或实际需要确定不同变量进入回归方程的顺序。

温馨提示:以上解释仅供参考。
应答时间:2021-04-16,最新业务变化请以平安银行官网公布为准。
[平安银行我知道]想要知道更多?快来看“平安银行我知道”吧~
https://b.pingan.com.cn/paim/iknow/index.html

分层回归通常用于中介作用或者调节作用研究中。
分析时通常第一层放入基本个人信息题项或控制变量; 第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。

所谓回归分析法,是在掌握大量观察数据的基础上,利用数理统计方法建立因变量与自变量之间的回归关系函数表达式(称回归方程式)。回归分析中,当研究的因果关系只涉及因变量和一个自变量时,叫做一元回归分析;当研究的因果关系涉及因变量和两个或两个以上自变量时,叫做多元回归分析。此外,回归分析中,又依据描述自变量与因变量之间因果关系的函数表达式是线性的还是非线性的,分为线性回归分析和非线性回归分析。通常线性回归分析法是最基本的分析方法,遇到非线性回归问题可以借助数学手段化为线性回归问题处理。
分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验。

模型比较可以用来评估个体预测变量。检验一个预测变量是否显著的方法是比较两个模型,其中第一个模型不包括这个预测变量,而第二个模型包括该变量。假如该预测变量解释了显著的额外变异,那第二个模型就显著地解释了比第一个模型更多的变异。这种观点简单而有力。但是,要理解这种分析,你必须理解该预测变量所解释的独特变异和总体变异之间的差异。

一个预测变量所解释的总体变异是该预测变量和结果变量之间相关的平方。它包括该预测变量和结果变量之间的所有关系。

预测变量的独特变异是指在控制了其他变量以后,预测变量对结果变量的影响。这样,预测变量的独特变异依赖于其他预测变量。在标准多重回归分析中,可以对独特变异进行检验,每个预测变量的回归系数大小依赖于模型中的其他预测变量。

在标准多重回归分析中,回归系数用来检验每个预测变量所解释的独特变异。这个独特变异就是偏相关的平方(Squared semi-partial correlation)-sr2(偏确定系数)。它表示了结果变量中由特定预测变量所单独解释的变异。正如我们看到的,它依赖于模型中的其他变量。假如预测变量之间存在重叠,那么它们共有的变异就会削弱独特变异。预测变量的独特效应指的是去除重叠效应后该预测变量与结果变量的相关。这样,某个预测变量的特定效应就依赖于模型中的其他预测变量。

标准多重回归的局限性在于不能将重叠(共同)变异归因于模型中的任何一个预测变量。这就意味着模型中所有预测变量的偏决定系数之和要小于整个模型的决定系数(R2)。总决定系数包括偏决定系数之和与共同变异。分层回归提供了一种可以将共同变异分配给特定预测变量的方法。

分层回归

标准多重回归可以测量模型所解释的变异量的大小,它由复相关系数的平方(R2,即决定系数)来表示,代表了预测变量所解释的因变量的变异量。模型的显著性检验是将预测变量所解释的变异与误差变异进行比较(即F值)。

但是,也可以采用相同的方式来比较两个模型。可以将两个模型所解释的变异之差作为F值的分子。假如与误差变异相比,两个模型所解释的变异差别足够大,那么就可以说这种差别达到了统计的显著性。相应的方程式将在下面详细阐述。

分层回归就是采用的这种方式。分层回归包括建立一系列模型,处于系列中某个位置的模型将会包括前一模型所没有的额外预测变量。假如加入模型的额外解释变量对解释分数差异具有显著的额外贡献,那么它将会显著地提高决定系数。

这个模型与标准多重回归的差异在于它可以将共同变异分配到预测变量中。而在标准多重回归中,共同变异不能分配到任何预测变量中,每个预测变量只能分配到它所解释的独特变异,共同变异则被抛弃了。在分层回归中,将会把重叠(共同)变异分配给第一个模型中的预测变量。因此,共同变异将会分配给优先进入模型的变量。

重叠的预测变量(相关的预测变量Predictor variables that overlap)
简单地看来,由一系列预测变量所解释的变异就像一块块蛋糕堆积在一起。每个预测变量都有自己明确的一块。它们到达桌子的时间是无关紧要的,因为总有同样大小的蛋糕在等着它们。不同部分变异的简单相加就构成了某个模型所解释的总体变异。

但是,这种加法的观点只有在每个预测变量互相独立的情况下才是正确的。对于多重回归来说,则往往不正确。假如预测变量彼此相关,它们就会在解释变异时彼此竞争。归因于某个预测变量的变异数量还取决于模型中所包含的其他变量。这就使得我们对两个模型的比较进行解释时,情况变得更为复杂。

方差分析模型是建立在模型中的因素相互独立的基础上的。在ANOVA中,因素对应于多重回归中的预测变量。这些因素具有加法效应,变异(方差)可以被整齐地切开或分割。这些因素之间是正交的。

但是,在多重回归中,变量进入模型的顺序会影响该变量所分配的变异量。在这种情况下,预测变量就像一块块浸在咖啡杯中的海绵。每一块都吸收了一些变异。在分层多重回归中,第一块浸入咖啡杯的海绵首先吸收变异,它贪婪地吸收尽可能多的变异。假如两个预测变量相关,那它们所解释的变异就存在重叠。如果一个变量首先进入模型,那它就将重叠(共同)变异吸收据为己有,不再与另一个变量分享。

在标准多重回归中,所有预测变量同时进入模型,就像将所有海绵同时扔进咖啡杯一样,它们互相分享共同变异。在这种情况下,偏相关的平方(sr2)与回归系数相等,它们检验了相同的东西:排除了任何共同变异后的独特变异。这样,在多重回归中,对回归系数的T检验就是sr2的统计显著性检验。但是,在分层回归或逐步回归中,sr2不再与回归系数相等。但T检验仍然是对回归系数的检验。要估计sr2是否显著,必须对模型进行比较。

模型比较就是首先建立一个模型(模型a),使它包括除了要检验的变量以外的所有变量,然后再将想要检验的变量加入模型(模型b),看所解释的变异是否显著提高。要检验模型b是否要比模型a显著地解释了更多的变异,就要考察各个模型所解释的变异之差是否显著大于误差变异。下面就是检验方程式(Tabachnik and Fidell, 1989)。

(R2b-R2a)/M

F = ————————

(1+ R2b) /dferror

(2为平方,a,b为下标。不知道在blog里如何设置文字格式)

原文(DATA ANALYSIS FOR PSYCHOLOGY, George Dunbar)如此,但参考了其他书后,觉得这是误印,真正的公式应该是这样的:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror
注:

M是指模型b中添加的预测变量数量

R2b是指模型b(包含更多预测变量的模型)的复相关系数的平方(决定系数)。

R2a是指模型a(包含较少预测变量的模型)的复相关系数的平方(决定系数)。

dferror是指模型b误差变异的自由度。

分层回归与向前回归、向后回归和逐步回归的区别
后三者都是选择变量的方法。

向前回归:根据自变量对因变量的贡献率,首先选择一个贡献率最大的自变量进入,一次只加入一个进入模型。然后,再选择另一个最好的加入模型,直至选择所有符合标准者全部进入回归。

向后回归:将自变量一次纳入回归,然后根据标准删除一个最不显著者,再做一次回归判断其余变量的取舍,直至保留者都达到要求。

逐步回归是向前回归法和向后回归法的结合。首先按自变量对因变量的贡献率进行排序,按照从大到小的顺序选择进入模型的变量。每将一个变量加入模型,就要对模型中的每个变量进行检验,剔除不显著的变量,然后再对留在模型中的变量进行检验。直到没有变量可以纳入,也没有变量可以剔除为止。

向前回归、向后回归和逐步回归都要按照一定判断标准执行。即在将自变量加入或删除模型时,要进行偏F检验,计算公式为:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror

SPSS回归所设定的默认标准是选择进入者时偏F检验值为3.84,选择删除者时的F检验值为2.71。

从上面可以看出,分层回归和各种选择自变量的方法,其实都涉及模型之间的比较问题,而且F检验的公式也相等,说明它们拥有相同的统计学基础。但是,它们又是不同范畴的概念。分层回归是对于模型比较而言的,而上面三种方法则是针对自变量而言的。上面三种选择自变量的方法,都是由软件根据设定标准来自动选择进入模型的变量。而分层回归则是由研究者根据经验和理论思考来将自变量分成不同的组(block),然后再安排每一组变量进入模型的顺序,进入的顺序不是根据贡献率,而是根据相应的理论假设。而且,研究者还可以为不同组的自变量选用不同的纳入变量的方法。

分层回归在SPSS上的实现

在线性回归主对话框中,在定义完一组自变量后,在因变量不变的情况下,利用block前后的previous和next按钮,继续将其他变量组加入模型。

分层回归通常用于中介作用或者调节作用研究中。

分析时通常第一层放入基本个人信息题项或控制变量;第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。

分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。

假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验。

扩展资料:

前面介绍的回归分析中的自变量和因变量都是数值型变量,如果在回归分析中引入虚拟变量(分类变量),则会使模型的应用范围迅速扩大。在自变量中引入虚拟变量本身并不影响回归模型的基本假定,因为经典回归分析是在给定自变量X的条件下被解释变量Y的随机分布。

但是如果因变量为分类变量,则会改变经典回归分析的基本假定,一般在计量经济学教材中有比较深入的介绍,如Logistics回归等。

参考资料来源:百度百科-多元回归分析



分层逐步多元回归分析,是指分层回归,每一层都用逐步回归的方法。

分层回归的SPSS操作参考下面网址

http://jingyan.baidu.com/article/20b68a8865ff2a796dec6263.html

逐步回归参考下面步骤:

 



分层回归通常用于中介作用或者调节作用研究中。

分析时通常第一层放入基本个人信息题项或控制变量; 第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。



一般来说,将比较固定的变量比如人口统计学变量放入第一层;之后再逐步加入其它变量。回归的方法我一般在BLOCK1里面选择ENTER法,BLOCK2选择STEPWISE法。


什么是社会多元分层结构?举例说明。
社会学家发现社会存在着不平等,人与人之间、集团与集团之间,也像地层构造那样分成高低有序的若干等级层次,因而借用地质学上的概念来分析社会结构,形成了“社会分层”这一社会学范畴。 高中历史,社会结构、社会阶层分别是什么,请举例说明 广义地讲,它可以指经济、政治、社会等各个领域多方面的结构状况,狭义地讲,在...

求问用SPSS做多元回归的几个问题
嗯,刚看到你的求助。你的问题较多,给我留言就行,我看了抽空给你来回答。1、散点图只能做两个变量之间的,一个横轴,一个纵轴;通过散点图判断它们之间存在线性还是非线性关系;2、是在存在多重共线性的情况下更适合采用逐步回归;3、采用分层回归分析的方法将控制变量、自变量按层分别选入模型中。

回归分析的19种分类
线性回归是研究X对于Y的影响,如果说有多个X,希望让模型自动找出有意义的X,此时就可以使用逐步回归。另外在很一些管理类研究中会涉及到中介作用或者调节作用,此时就可能使用到分层回归或者分组回归等。在进行线性回归分析时,如果说模型出现共线性问题VIF值很大,此时就可以使用岭回归进行解决,岭回归的...

逻辑回归包括分层回归吗
因此,虽然两种方法都是回归分析方法,但逻辑回归和分层回归是不同的方法,并不包括关系。自20世纪末叶以来,针对数据分层结构的分层模型不论是在理论研究方面还是在应用方面都获得了长足的发展。该模型实质上就是条件独立分层模型。多元逻辑回归模型简介:在1980年Ohlson第一个将逻辑回归方法引人财务危机预警...

怎么在spss上做层次回归分析
线性回归是研究X对于Y的影响,如果说有多个X,希望让模型自动找出有意义的X,此时就可以使用逐步回归。另外在一些管理类研究中会涉及到中介作用或者调节作用,此时就可能使用到分层回归等。操作:SPSSAU[进阶方法]-->[分层回归]。

如何用SPSS分析调节效应
做调节效应,通常是使用回归进行。更多是使用分层回归,即通过加入交互项后,看交互项是否显著,模型解释力度有没明显的变化,来判断调节效应是否存在。如果加入交互项后模型明显变化,或者调节项呈现出显著性即说明具有调节作用。SPSSAU中就有这个分析方法推荐使用。

怎么在spss上做层次回归分析
多元线性回归 1.打开数据,依次点击:analyse--regression,打开多元线性回归对话框。2.将因变量和自变量放入格子的列表里,上面的是因变量,下面的是自变量。3.设置回归方法,这里选择最简单的方法:enter,它指的是将所有的变量一次纳入到方程。其他方法都是逐步进入的方法。然后点下一层再选入其他变量 ...

如何在SPSS中做分层回归分析
spss做中介分析 直接在多元回归分析里面 有个 block 那个分层就可以了,将自变量一层一层的移入到那个对话框,就会一次性出来一个整合的表格,而不应该你这样你一步一步地回归。

spssau可用于研究生论文吗
产品与服务:常规统计功能:描述频数统计、交叉分类汇总、相关分析(Pearson、Spearman、和Kendalltau)、线性回归、单样本t检验、独立样本t检验、配对t检验、正态性检验(Kolmogorov-Smirnov和Shapro-Wilk检验)。回归分析及预测:线性OLS回归(包括逐步回归和分层回归)、Logistic回归(包括二元和多分类logistic)、...

这哪位社会学大神能解释一下“社会分层”吗?
社会分层,如同一幅错综复杂的画卷,描绘出人们在社会结构中的地位和资源分配。它不仅是生产力发展的产物,也受到社会制度、文化观念的深远影响。马克思的阶级斗争理论,曾设想阶级对立推动历史进程,但现实中的社会流动并非如此简单,韦伯的多元分层理论则提出互补和协调,弱化了阶级间的冲突,强调社会秩序的...

察哈尔右翼前旗19296003962: 多元回归是什么意思? -
剑慧复方: 多元回归是对“多个”有相互关联作用的变量(比如期货交易中的大豆、小麦、玉米和豆油价格)进行回归分析的方法. “回归”的意思是根据已有的数据倒推回去,找出这些数据相互关联的公式,根据这个公式我们可以计算或估算未来的价格变化趋势.比如前面图中分析的是两个价格(CBOT的大豆和玉米)之间的关联曲线,得到的结果是一条直线. 如果回归分析的结果不是直线而是曲线,则称为非线性相关.

察哈尔右翼前旗19296003962: 多元线性回归与多元逐步回归分析是一回事吗 -
剑慧复方: 不是一回事,多元线性回归分析强调自变量有多个,并且自变量与因变量是线性关系.其中自变量进入回归方程的方式有多种,逐步进入法就是其中之一,因而叫逐步回归分析.除了逐步进入法还有全部进入法、向前、向后法等.(南心网 SPSS逐步回归分析)

察哈尔右翼前旗19296003962: 多元回归分析是什么意思? -
剑慧复方: Multip Regression(多元回归分析) 概念: 分析若干个预测变项和一个效标变项间的关系

察哈尔右翼前旗19296003962: 逐步回归和层次回归有什么区别呢 -
剑慧复方: 多元回归分析又可分为“逐步回归”(stepwise regression)和“层次回归”(hierarchical regression).“逐步回归”先选择与效标相关最高的预测变量进入方程,然后,运用偏相关方法,逐一检验与效标相关较高或次高的预测变量,直至新增变量不再产生具有统计显著意义的增量效应为止.“层次回归”则由研究者根据理论或实际需要确定不同变量进入回归方程的顺序. 这个可能用软件来实践下就会慢慢清晰概念了,可惜我也只听张老师淡淡的讲过些,希望对你有帮助!

察哈尔右翼前旗19296003962: 简述回归分析的概念与特点 -
剑慧复方: 回归分析(regression analysis)是确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法.运用十分广泛,回归分析按照涉及的自变量的多少,可分为一元回归分析和多元回归分析;按照自变量和因变量之间的关系类型,可分为...

察哈尔右翼前旗19296003962: 多元逐步回归分析的目的是什么 -
剑慧复方: 多元逐步回归分析的目的是为了看每个解释变量对被解释变量的影响程度,当方程出现了异方差性,影响了回归方程的准确性,则要把这个变量剔除.

察哈尔右翼前旗19296003962: 怎么在spss上做层次回归分析 -
剑慧复方: 线性回归是研究X对于Y的影响,如果说有多个X,希望让模型自动找出有意义的X,此时就可以使用逐步回归.另外在一些管理类研究中会涉及到中介作用或者调节作用,此时就可能使用到分层回归等.操作:SPSSAU[进阶方法]-->[分层回归].

察哈尔右翼前旗19296003962: 什么是逐步回归法 -
剑慧复方: 在研究多项式回归问题时,自变量可能是一组不同的变量或某些组合的变量.但这些自变量对因变量y的影响不尽相同,有些自变量的作用可以忽略,而保留与 y有显著关系的适度“好”的那部分自变量,这就属于多元回归分析中变量筛选问题....

察哈尔右翼前旗19296003962: 请问多元回归分析是怎么回事?怎么分析? -
剑慧复方: 截图就不做了,说下大概的操作,希望能帮助到你1、在spss里variable view里,输入5个变量名称,可用中文.2、然后在data view里分别录入5个变量对应的数据3、点击analyze--regession--linear,在弹出框里,把因变量(抑郁得分)选定在...

察哈尔右翼前旗19296003962: 逐步回归分析法是基于什么情况下提出的 -
剑慧复方: 逐步回归在做多元线性回归分析时使用,当自变量较多时,我们需要选择对因变量有显著影响的变量,而舍去对因变量无显著影响的变量,最好的方法就是回归分析

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网