선형회귀 4

계량경제학 #3 이분산 가정 하에서 OLS: HC 추정량과 FGLS

1. Heteroskedasticity 동분산성(Homoskedasticity)은 오차의 조건부 분산이 상수라는 것을 의미한다. $$E(U_{t}^{2}|\mathsf{X}_{t}) = \sigma_{*}^{2}$$ 독립변수 벡터의 조건부 평균은 독립변수 벡터의 함수이다. 따라서 동분산 가정은 오차의 조건부 분산이 독립변수 값에 따라 변화하지 않는다는 것을 의미한다. 만약 오차의 조건부 분산이 독립변수 값에 따라 변화한다면, 이분산성(Heteroskedasticity)이 존재한다고 말한다. 2. 모형의 가정 기본적으로 CLM의 가정과 동일하지만, 동분산성 가정만 제외한다. Asymptotic Theory의 세계를 다루고 있으므로, 정규성 가정도 불필요하다. 1) IID: Independently & Id..

계량경제학 #1 고전적 선형회귀 모형

1. 선형회귀 모형의 개요 선형회귀 모형은 종속변수 $Y$를 독립변수 집합 $X_1$, $X_2$, ... , $X_k$의 선형함수로 설명하는 모형이다. 일반적으로 주어진 독립변수 집합 하에서 종속변수의 조건부 평균을 구하는 것이 목표이다. 즉 다음의 조건부 평균을 만족시키는 회귀계수 $\beta_*$를 구하는 것이다. $$E[Y_{t}|\mathsf{X}_{t}] = \beta_{1}X_{t1} + \beta_{2}X_{t2} + ... + \beta_{k}X_{tk} = \mathsf{X}_{t}^{T}\beta_{*}$$ where $$\mathsf{X}_{t}^{T} = [X_{t1}, X_{t2}, \cdots, X_{tk}]$$ $$\beta_* = [\beta_{1}, \beta_{2}, \..

Deep Learning #1 딥러닝 기초: 심층신경망의 구조와 간단 코드 실습

1. Deep Neural Net 딥러닝(Deep Learning)이란 인공신경망(Artificial Neural Net)을 훈련해 회귀나 분류 문제 등을 해결하는 것을 말한다. 인공신경망은 심층신경망(Deep Neural Net) 또는 다층퍼셉트론(Multi-Layer Perceptron)이라고도 불린다. 굳이 구분할 필요는 없이 다 같은 개념으로 사용해도 된다고 본다. 심층신경망은 다음의 요소들로 구성된다. 인풋 레이어(Input Layer): 주어진 데이터가 벡터(Vector) 형태로 입력된다. 이를 인풋 벡터(Input Vector)라고도 말하며, 인풋 벡터 그 자체는 심층신경망의 입장에서는 인풋 레이어가 된다. 히든 레이어(Hidden Layer): 인풋 레이어와 아웃풋 사이를 매개하는 레이어...

Machine Learning #1 Linear Regression : 근로자 임금 회귀분석

GitHub - SeungbeomDo/DataAnalysis: Practical Codes for Data Analysis using Machine Learning and Deep Learning Practical Codes for Data Analysis using Machine Learning and Deep Learning - GitHub - SeungbeomDo/DataAnalysis: Practical Codes for Data Analysis using Machine Learning and Deep Learning github.com 1. 선형회귀모형의 도입 머신러닝 모델이라고 하면 복잡한 방법론을 떠올린다. 하지만 학부 통계학 강의에서도 쉽게 다루는 선형회귀모델도 머신러닝 모델의 한 유형이다..