estimated_standard_deviation
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
estimated_standard_deviation [2020/11/05 18:23] – [temp] hkimscil | estimated_standard_deviation [2025/03/24 08:27] (current) – [직관적 이해] hkimscil | ||
---|---|---|---|
Line 11: | Line 11: | ||
\begin{eqnarray*} | \begin{eqnarray*} | ||
- | \hat{\sigma}^{2} | + | \hat{\sigma}^{2} |
\end{eqnarray*} | \end{eqnarray*} | ||
Line 22: | Line 22: | ||
====== 직관적 이해 ====== | ====== 직관적 이해 ====== | ||
+ | 분산은 $SS/df$ 라고 배웠는데, | ||
+ | ====== 시뮬레이션 이해 ====== | ||
위에서 n-1 을 사용하기 위해서 추정하는 것은 | 위에서 n-1 을 사용하기 위해서 추정하는 것은 | ||
Line 50: | Line 52: | ||
| | | SS< | | | | SS< | ||
- | 이렇게 얻은 SS< | + | 이렇게 얻은 SS< |
Line 223: | Line 225: | ||
'' | '' | ||
- | $\sum({X_{i}-\mu})^{2} > \sum({X_{i}-\overline{X}})^{2}$ | + | $\sum({X_{i}-\mu})^{2} > \sum({X_{i}-\overline{X}})^{2}$ 이다. |
이를 그림으로 설명하면 다음과 같다. 아래에서 녹색의 세로선은 모집단의 평균값이고, | 이를 그림으로 설명하면 다음과 같다. 아래에서 녹색의 세로선은 모집단의 평균값이고, | ||
Line 352: | Line 354: | ||
평균이 | 평균이 | ||
- | 마지막 그래프에서 가장 작은 기울기값을 갖는 v 값을 구하는 미분을 | + | 마지막 그래프에서 가장 작은 기울기값을 갖는 v 값을 구한다고 |
{{: | {{: | ||
Line 378: | Line 380: | ||
====== 수학적 증명 ====== | ====== 수학적 증명 ====== | ||
- | |||
우선, | 우선, | ||
Line 385: | Line 386: | ||
& = & E[(X^{2} - 2 X \mu + \mu^{2})] \\ | & = & E[(X^{2} - 2 X \mu + \mu^{2})] \\ | ||
& = & E[X^{2}] - 2 \mu E[X] + E[\mu^2] \\ | & = & E[X^{2}] - 2 \mu E[X] + E[\mu^2] \\ | ||
- | & = & E[X^{2}] - 2 \mu E[X] + E[\mu^{2}], \;\; \text{because E[X]=} \mu \text{, \; E[} \mu^2 \text{] = } \mu^2, \\ | + | & = & E[X^{2}] - 2 \mu E[X] + E[\mu^{2}], \;\; \text{because}\; E[X] = \mu \text{, |
& = & E[X^{2}] - 2 \mu^{2} + \mu^{2} | & = & E[X^{2}] - 2 \mu^{2} + \mu^{2} | ||
& = & E[X^{2}] - \mu^{2} | & = & E[X^{2}] - \mu^{2} | ||
Line 392: | Line 393: | ||
이므로 | 이므로 | ||
- | \begin{eqnarray*} | + | \begin{align} |
- | E[X^2] & = & Var[X] + \mu^2 \\ | + | E\left[X^2\right] & = Var\left[X\right] + \mu^2 \nonumber |
- | & = & \sigma^{2} + \mu^2 \;\;\; \dots\dots\dots\dots\dots (1) | + | & = \sigma^{2} + \mu^2 \\ |
- | \end{eqnarray*} | + | \end{align} |
마찬가지로 | 마찬가지로 | ||
- | + | \begin{align} | |
- | \begin{eqnarray*} | + | Var \left[ \overline{X}\right] & = E \left[\overline{X}^2 |
- | Var[\overline{X}] & = & E[\overline{X}^2] - [E(\overline{X})]^2 \\ | + | & = E\left[\overline{X}^{2}\right] - \mu^{2} |
- | & = & E[\overline{X}^{2}] - \mu^{2} | + | \end{align} |
- | \end{eqnarray*} | + | |
따라서 | 따라서 | ||
- | \begin{eqnarray*} | + | \begin{align} |
- | E[\overline{X}^{2}] | + | E\left[\overline{X}^{2}\right] & = Var\left[\overline{X}\right] + \mu^2 \nonumber |
- | & = & \frac {\sigma^{2}} {n} + \mu^{2} | + | & = \frac {\sigma^{2}} {n} + \mu^{2} |
- | \end{eqnarray*} | + | \end{align} |
- | 참고로 위에서 $Var[\overline{X}] = \dfrac {\sigma^{2}} {n} $ 에 해당하는 설명은 [[:mean and variance of the sample mean]] 문서를 볼 것. | + | 참고로 위에서 $Var\left[\overline{X}\right] = \dfrac {\sigma^{2}} {n} $ 에 해당하는 설명은 [[:mean and variance of the sample mean]] 문서를 볼 것. |
---- | ---- | ||
Line 417: | Line 417: | ||
X,Y are Independent variables. | X,Y are Independent variables. | ||
- | \begin{eqnarray*} | + | \begin{align*} |
- | E[aX] &=& a E[X] \\ | + | E[aX] & = a E[X] \\ |
- | E[X+Y] &=& E[X] + E[Y] \\ | + | E[X+Y] & = E[X] + E[Y] \\ |
- | Var[aX] &=& a^{\tiny{2}} Var[X] \\ | + | Var[aX] & = a^{\tiny{2}} Var[X] \\ |
- | Var[X+Y] &=& Var[X] + Var[Y] | + | Var[X+Y] & = Var[X] + Var[Y] |
- | \end{eqnarray*} | + | \end{align*} |
</ | </ | ||
---- | ---- | ||
우리가 알고자 하는 것은 아래의 식이 population의 parameter인 $\sigma^{2}$ 의 값과 같은가이다. | 우리가 알고자 하는 것은 아래의 식이 population의 parameter인 $\sigma^{2}$ 의 값과 같은가이다. | ||
- | \begin{eqnarray*} | + | \begin{align*} |
- | E[s^{2}] & = & E \left[\frac{\displaystyle\sum_{i=1}^{n}(X_{i}-\overline{X})^{2}}{n-1} \right] \dots\dots\dots (a) \\ | + | E[s^{2}] & = E \left[\frac{\displaystyle\sum_{i=1}^{n}(X_{i}-\overline{X})^{2}}{n-1} \right] \qquad |
- | & = & \sigma^{2} | + | \cdot\cdot\cdot\cdot\cdot\cdot\cdot\cdot\cdot\cdot\cdot\cdot |
- | \end{eqnarray*} | + | & = \sigma^{2} |
+ | \end{align*} | ||
위의 식에서 일부만을 추출해서 먼저 보자. | 위의 식에서 일부만을 추출해서 먼저 보자. | ||
- | ====== temp ====== | ||
- | \begin{eqnarray*} | + | \begin{align*} |
- | E \left[\sum{(X_{i}-\overline{X})^{2}} \right] & = & E \left[\sum(X_{i}^{2}- 2 X_{i} \overline{X} + \overline{X}^{2})\right] \\ | + | E \left[\sum{(X_{i}-\overline{X})^{2}} \right] & = E \left[\sum(X_{i}^{2}- 2 X_{i} \overline{X} + \overline{X}^{2})\right] \\ |
- | & = & E \left[ \sum{X_{i}^2} - \sum {2X_{i} \overline{X} + \sum {\overline{X^2}} | + | & = E \left[ \sum{X_{i}^2} - \sum{2X_{i} \overline{X}} + \sum {\overline{X^2}} |
- | + | & = E \left[ \sum{X_{i}^2} - 2 \overline{X} | |
- | \end{eqnarray*} | + | & = E \left[ \sum{X_{i}^2} - 2 \overline{X} \sum{X_{i}} + n \overline{X^2} \right] |
- | + | & = E \left[ \sum{X_{i}^2} - 2 \overline{X} \cdot (n \overline{X}) + n \overline {X^2} \right] \\ | |
- | 한 편, 위의 (1), (2)에서 | + | & = E \left[ \sum{X_{i}^2} - n \overline{X}^2 \right] \\ |
- | & = & E \left[ \sum{X_{i}^2} - \sum {2X_{i} \overline{X} + \sum {\overline{X^2}} | + | & = \sum {E\left(X_{i}^2\right)} - E\left(n\overline{X}^2\right) \\ |
- | & = & E \left[\sum{X_{i}^{2}} - 2 \overline{X}\sum{X_{i} + n{\overline{X}^{2}} \right] \\ | + | & = \sum {E\left(X_{i}^2\right)} - n E\left(\overline{X}^2\right) \;\;\; \dots\dots\dots\dots\dots (3) |
- | & = & E \left[\sum{X_{i}^{2}} - 2 \overline{X}\cdot n \overline{X} + n{\overline{X}^{2}} \right] \\ | + | \end{align*} |
- | & = & E \left[\sum{X_{i}^{2}} - n {\overline{X}^{2}} \right] \\ | + | |
- | & = & \sum{E(X_{i}^{2})} - E(n\overline{X}^{2}) \\ | + | |
- | & = & \sum{E(X_{i}^{2})} - n E(\overline{X}^{2}) \;\;\; \dots\dots\dots\dots\dots (3) | + | |
- | + | ||
- | ====== Headline ====== | + | |
+ | 한 편, 위의 $(1), (2)$에서 | ||
<WRAP box> | <WRAP box> | ||
- | \begin{eqnarray*} | + | \begin{align*} |
- | E[X_{i}^{2}] & = & \sigma^{2} + \mu^2 \;\;\; \dots\dots\dots\dots\dots (1) \\ | + | E\left[X_{i}^{2}\right] & = \sigma^{2} + \mu^2 \;\;\; \dots\dots\dots\dots\dots (1) \\ |
- | E[\overline{X}^{2}] & = & \dfrac {\sigma^{2}} {n} + \mu^{2} \;\;\; \dots\dots\dots\dots\dots (2) | + | E\left[\overline{X}^{2}\right] & = \dfrac {\sigma^{2}} {n} + \mu^{2} \;\;\; \dots\dots\dots\dots\dots (2) |
- | \end{eqnarray*} | + | \end{align*} |
</ | </ | ||
- | 위의 (1), (2)를 (3)에 대입해보면 | + | 위의 |
- | \begin{eqnarray*} | + | \begin{align*} |
- | E \left[\sum{(X_{i}-\overline{X})^{2}} \right] & = & \sum{E(X_{i}^{2})} - n E(\overline{X}^{2}) | + | E \left[\sum{(X_{i}-\overline{X})^{2}} \right] & = \sum{E\left(X_{i}^{2}\right)} - n E\left(\overline{X}^{2}\right) \\ |
- | & = & \sum{(\sigma^{2} + \mu^{2})} - n (\dfrac{\sigma^2}{n} + \mu^2) \\ | + | & = \sum{\left(\sigma^{2} + \mu^{2}\right)} - n \left(\dfrac{\sigma^2}{n} + \mu^2\right) \\ |
- | & = & n\sigma^{2} + n\mu^{2} - \sigma^{2} - n\mu^{2} \\ | + | & = n\sigma^{2} + n\mu^{2} - \sigma^{2} - n\mu^{2} \\ |
- | & = & (n-1) \sigma^{2} | + | & = \left(n-1\right) \sigma^{2} |
- | \end{eqnarray*} | + | \end{align*} |
위는 식 (a)의 일부이므로 이를 온전한 식에 대입해보면, | 위는 식 (a)의 일부이므로 이를 온전한 식에 대입해보면, | ||
Line 485: | Line 481: | ||
\end{eqnarray*} | \end{eqnarray*} | ||
+ | |||
+ | ---- | ||
만약에 우리가 population의 variance를 구하듯이 n을 이용한다고 하면, | 만약에 우리가 population의 variance를 구하듯이 n을 이용한다고 하면, | ||
Line 491: | Line 489: | ||
& = & \dfrac{1}{n} E \left[\sum{(X_{i}-\overline{X})^{2}} \right] \\ | & = & \dfrac{1}{n} E \left[\sum{(X_{i}-\overline{X})^{2}} \right] \\ | ||
& = & \dfrac{1}{n} (n-1) \sigma^{2} \\ | & = & \dfrac{1}{n} (n-1) \sigma^{2} \\ | ||
- | & = & (\dfrac{n-1}{n}) \sigma^{2} \\ | + | & = & \left(\dfrac{n-1}{n}\right) \sigma^{2} \\ |
\end{eqnarray*} | \end{eqnarray*} | ||
즉, 원래 $\sigma^2$ 값보다 조금 작은 값을 갖게 될 것이다 (이를 biased result라고 한다). | 즉, 원래 $\sigma^2$ 값보다 조금 작은 값을 갖게 될 것이다 (이를 biased result라고 한다). | ||
+ | |||
+ | |||
{{tag>" | {{tag>" | ||
estimated_standard_deviation.1604568233.txt.gz · Last modified: 2020/11/05 18:23 by hkimscil