导航菜单
首页 >  » 正文

spss回归分析中,p值正好等于0.05,是否显著? 多元线性回归分析中,为什么要对可决系数加以修正

spss回归分析中,p值正好等于0.05,是否显著?

可能显著,可能不显著。显著性检验的基本原理是提出“无效假设”和检验“无效假设”成立的机率(P)水平的选择。所谓“无效假设”,就是当比较实验处理组与对照组的结果时,假设两组结果间差异不显著,即实验处理对结果没有影响或无效。
这个严谨的说,就直接对这个p=0.05进行一个讨论 可能是显著 也可能是不显著,因此可以在以后的研究中扩大样本量进一步求证。  但实际是你双击以下 那个0.05  肯定后面还有很多隐藏的位数。所以不可能是恰好等于0.05,一般都是大于0.05

扩展资料
如果P值小于某个事先确定的水平,理论上则拒绝零假设,反之,如果P值大于某个事先确定的水平,理论上则不拒绝零假设。常用的显著性水平是0.05,0.01和0.001[1]。
不同的水平各有优缺点。水平越小,判定显著性的证据就越充分,但是不拒绝错误零假设的风险,犯第二类错误的可能性就越大,统计效力就越低。
选择水平不可避免地要在第一类错误和第二类错误之间做出权衡。如果犯第一类错误造成的后果不严重,比如在试探性研究中,我们可以将α水平定得高一些,如0.05或0.1。
如果研究样本很小,为了提高统计效力,我们在某些研究中也不妨提高口水平。但是,如果犯第一类错误造成的后果很严重,比如我们要基于某项研究发现决定是否在全国推行某项教学改革,我们则需要将α水平定得低一些,如0.01或0.001。
参考资料:搜狗百科-显著性检验

多元线性回归分析中,为什么要对可决系数加以修正

随着模型中解释变量的增加,多重可决系数R的平方的值会变大当解释变量相同而解释变量个数不同时运用多重可决系数去比较两个模型拟合程度会带来缺陷,因为可决系数只考虑变差,没有考虑自由度。
F检验与可决系数有密切的联系,一般来说,模型对观测值的拟合程度越高,模型总体线性关系的显著性就越强。
随着修正可决系数的增加,F统计量的值不断增加。对方程联合显著性检验的F检验,实际上也是对R平方的显著性检验。

扩展资料:
多元线性回归分析的优点:
1、在回归分析中,如果有两个或两个以上的自变量,就称为多元回归。事实上,一种现象常常是与多个因素相联系的,由多个自变量的最优组合共同来预测或估计因变量,比只用一个自变量进行预测或估计更有效,更符合实际。因此多元线性回归比一元线性回归的实用意义更大。
2、在多元线性回归分析是多元回归分析中最基础、最简单的一种。
3、运用回归模型,只要采用的模型和数据相同,通过标准的统计方法可以计算出唯一的结果。

用spss做主成分分析出现警告信息。案例数量少于两个,至少有一个变量具有零方差……求解?

你先看一下你的变量描述统计,用frequency一下
这是最基础的一步,估计你不会spss,现在直接就做后面的步骤了
我经常帮别人做这类的数据分析的

相关推荐: