User Tools

Site Tools


regression

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
regression [2023/05/24 08:53] – [Slope test] hkimscilregression [2024/09/30 01:13] (current) – [E.g., Simple regression] hkimscil
Line 23: Line 23:
  
 상관관계에서 살펴 본것처럼, 관측된 데이터는 최소자승 (Least Squared) 법을 이용하여 회귀식을 유도할 수 있는데, 이때의 절편과 기울기 값은 각각 다음과 같이 구할 수 있다: 상관관계에서 살펴 본것처럼, 관측된 데이터는 최소자승 (Least Squared) 법을 이용하여 회귀식을 유도할 수 있는데, 이때의 절편과 기울기 값은 각각 다음과 같이 구할 수 있다:
- +\begin{eqnarray*} 
-$$b = \displaystyle \frac{SP}{SS_X}$$  +\displaystyle \frac{SP}{SS_X} \\ 
-$$a = \displaystyle \overline{Y} - b \overline{X} $$ +\displaystyle \overline{Y} - b \overline{X}  
 +\end{eqnarray*} 
 +참조: [[deriviation of a and b in a simple regression|리그레션에서 a와 b 구하기]]
  
 [{{:f03x1b.gif }}] 최소자승이 의미하는 것은 옆의 그림과 같다. regression line (회귀선)으로 X 값에 해당하는 Y 값을 예측할 수 있는데, 이때에는 실측값과 차이가 날 수 있다. 이 차이가 위의 그림에서 녹색선인데, 이 녹색선의 합이 최소값을 갖도록하는 것을 최소자승(least squared)법이라고 한다.  [{{:f03x1b.gif }}] 최소자승이 의미하는 것은 옆의 그림과 같다. regression line (회귀선)으로 X 값에 해당하는 Y 값을 예측할 수 있는데, 이때에는 실측값과 차이가 날 수 있다. 이 차이가 위의 그림에서 녹색선인데, 이 녹색선의 합이 최소값을 갖도록하는 것을 최소자승(least squared)법이라고 한다. 
Line 301: Line 303:
 위의 표에서 (Anova table), 위의 표에서 (Anova table),
  
-| for SS   | for degrees of freedom   |+@grey: for SS   @grey: for df    |
 | @white: white \\ = explained error (E) \\ = $SS{reg}$  | @lightblue: for regression \\ (number of variable -1) \\ = 1 (light blue) | | @white: white \\ = explained error (E) \\ = $SS{reg}$  | @lightblue: for regression \\ (number of variable -1) \\ = 1 (light blue) |
 | @orange: orange \\ = unexplained error (U) \\ = $SS{res}$  | @lightgreen: for residual \\ (number of case - number of variable) \\ = 8 (green) | | @orange: orange \\ = unexplained error (U) \\ = $SS{res}$  | @lightgreen: for residual \\ (number of case - number of variable) \\ = 8 (green) |
Line 350: Line 352:
 {{:acidity.sav}} \\ {{:acidity.sav}} \\
 {{:acidity.sps}} \\ {{:acidity.sps}} \\
 +
 +<file csv acidity.csv>
 +stream spec83 ph83
 +Moss 6 6.30
 +Orcutt 9 6.30
 +Ellinwood 6 6.30
 +Jacks 3 6.20
 +Riceville 5 6.20
 +Lyons 3 6.10
 +Osgood 5 5.80
 +Whetstone 4 5.70
 +UpperKeyup 1 5.70
 +West 7 5.70
 +Boyce 4 5.60
 +MormonHollow 4 5.50
 +Lawrence 5 5.40
 +Wilder 0 4.70
 +Templeton 0 4.50
 +</file>
 +<code>
 +df <- read.csv("http://commres.net/wiki/_export/code/regression?codeblock=3", sep = "\t")
 +</code>
  
 <code>stream         spec83 ph83 <code>stream         spec83 ph83
Line 768: Line 792:
 따라서 t = b / se = 3.655631 따라서 t = b / se = 3.655631
  
-<code>x <- c(1, 2, 3, 4, 5) 
-y <- c(1, 1, 2, 2, 4) 
-mody <- lm(y ~ x)  
-</code> 
  
-<code> 
-> x <- c(1, 2, 3, 4, 5) 
-> y <- c(1, 1, 2, 2, 4) 
-> mody <- lm(y ~ x)  
-> summary(mody) 
- 
-Call: 
-lm(formula = y ~ x) 
- 
-Residuals: 
-                  2          3          4          5  
- 4.000e-01 -3.000e-01 -3.886e-16 -7.000e-01  6.000e-01  
- 
-Coefficients: 
-            Estimate Std. Error t value Pr(>|t|)   
-(Intercept)  -0.1000     0.6351  -0.157   0.8849   
-x             0.7000     0.1915   3.656   0.0354 * 
---- 
-Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
- 
-Residual standard error: 0.6055 on 3 degrees of freedom 
-Multiple R-squared:  0.8167, Adjusted R-squared:  0.7556  
-F-statistic: 13.36 on 1 and 3 DF,  p-value: 0.03535 
- 
- 
-</code> 
 ====== E.g., 4. Simple regression ====== ====== E.g., 4. Simple regression ======
 Another example of simple regression: from {{:elemapi.sav}} \\ Another example of simple regression: from {{:elemapi.sav}} \\
regression.1684885994.txt.gz · Last modified: 2023/05/24 08:53 by hkimscil

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki