전체 글 123

계량경제학 #3 이분산 가정 하에서 OLS: HC 추정량과 FGLS

1. Heteroskedasticity 동분산성(Homoskedasticity)은 오차의 조건부 분산이 상수라는 것을 의미한다. $$E(U_{t}^{2}|\mathsf{X}_{t}) = \sigma_{*}^{2}$$ 독립변수 벡터의 조건부 평균은 독립변수 벡터의 함수이다. 따라서 동분산 가정은 오차의 조건부 분산이 독립변수 값에 따라 변화하지 않는다는 것을 의미한다. 만약 오차의 조건부 분산이 독립변수 값에 따라 변화한다면, 이분산성(Heteroskedasticity)이 존재한다고 말한다. 2. 모형의 가정 기본적으로 CLM의 가정과 동일하지만, 동분산성 가정만 제외한다. Asymptotic Theory의 세계를 다루고 있으므로, 정규성 가정도 불필요하다. 1) IID: Independently & Id..

계량경제학 #2 비정규 가정 하에서 OLS 추정량의 성질

CLM 모형의 가정 중 하나는 오차의 조건부 분포가 정규분포라는 것이다.오차의 조건부 분포에 대한 특별한 가정을 할 수 없는 경우에서 OLS 추정량의 성질을 알아본다.1. 모형의 가정기본적으로 CLM의 가정과 동일하지만, 정규성 가정만 제외된다.1) IID: Independently & Identically DistributedIID 가정은 데이터셋을 구성하는 각 벡터 [$Y_{t}$, $X_{t1}$, $X_{t2}$, ..., $X_{tk}$]가 독립적이고 동일한 확률분포를 갖는다는 것이다.2) 선형성: Linearity다음의 식을 성립시키는 $\beta_{*}$가 존재한다.$$E[Y_{t}|\mathsf{X}_{t}] = \mathsf{X}_{t}^{T}\beta_{*}$$3) 가역성: Invert..

계량경제학 #1 고전적 선형회귀 모형

1. 선형회귀 모형의 개요 선형회귀 모형은 종속변수 $Y$를 독립변수 집합 $X_1$, $X_2$, ... , $X_k$의 선형함수로 설명하는 모형이다. 일반적으로 주어진 독립변수 집합 하에서 종속변수의 조건부 평균을 구하는 것이 목표이다. 즉 다음의 조건부 평균을 만족시키는 회귀계수 $\beta_*$를 구하는 것이다. $$E[Y_{t}|\mathsf{X}_{t}] = \beta_{1}X_{t1} + \beta_{2}X_{t2} + ... + \beta_{k}X_{tk} = \mathsf{X}_{t}^{T}\beta_{*}$$ where $$\mathsf{X}_{t}^{T} = [X_{t1}, X_{t2}, \cdots, X_{tk}]$$ $$\beta_* = [\beta_{1}, \beta_{2}, \..

파생상품 이론 #14 증권화와 글로벌 금융위기

이 시리즈는 파생상품 이론 분야에서 가장 유명한 교재인 Hull(2021)의 "Options, Futures and Other Derivatives (11th)"을 요약한 것일 뿐이다. 아래는 책 구매 링크 https://www.pearson.com/en-us/subject-catalog/p/options-futures-and-other-derivatives/P200000005938/9780136939917 Options, Futures, and Other Derivatives ISBN-13: 9780136939917 Options, Futures, and Other Derivatives Published 2021 www.pearson.com 13편 https://seungbeomdo.tistory.co..

파생상품 이론 #13 이색 옵션(Exotic Option)

이 시리즈는 파생상품 이론 분야에서 가장 유명한 교재인 Hull(2021)의 "Options, Futures and Other Derivatives (11th)"을 요약한 것일 뿐이다. 아래는 책 구매 링크 Options, Futures, and Other Derivatives ISBN-13: 9780136939917 Options, Futures, and Other Derivatives Published 2021 www.pearson.com 12편 https://seungbeomdo.tistory.com/50 유로피안 옵션 외에도 다양한 옵션들이 있다. 아메리칸 옵션, 룩백 옵션, 디지털 옵션 등등. 이런 옵션들은 권리라는 점에서는 유로피안 옵션과 근본적으로 같지만, 수익 구조라든지 행사 시점이라든지에..

Deep Learning #7 Transformer

1. Transformer의 도입 1.1. Transformer의 아이디어 이전 포스팅에서 Attention에 대해서 다루었다. 그런데 Attention을 공부하다보면, 결국 RNN처럼 시퀀스 순서대로 인풋들을 받을 필요가 있을까, RNN 구조를 유지하는 것이 꼭 필요할까 하는 의문이 든다. 왜냐하면 시퀀스 데이터에 RNN과 Encoder-Decoder를 사용했던 것은 단 하나의 인풋 벡터뿐 아니라 모든 인풋 시퀀스들을 고려하기 위함이었기 때문인데, Attention만을 사용하더라도 어차피 모든 인풋 시퀀스들에 적당한 가중치들을 두고 아웃풋을 만들어낼 수 있기 때문이다. 그래서 그냥 Attention만을 사용하자! 라는 아이디어 하에서 등장한 모델이 있는데, 그게 바로 Transformer이다. Tran..

파생상품 이론 #12 Value-at-Risk & Expeceted Shortfall

이 시리즈는 파생상품 이론 분야에서 가장 유명한 교재인 Hull(2021)의 "Options, Futures and Other Derivatives (11th)"을 요약한 것일 뿐이다. 아래는 책 구매 링크 Options, Futures, and Other Derivatives ISBN-13: 9780136939979 Options, Futures, and Other Derivatives Published 2021 www.pearson.com 11편 파생상품 이론 #11 변동성 곡면(Volatility Surface) 이 시리즈는 파생상품 이론 분야에서 가장 유명한 교재인 Hull(2021)의 "Options, Futures and Other Derivatives (11th)"을 요약한 것일 뿐이다. 아..

Deep Learning #6 Attention

1. Encoder-Decoder 구조 1.1. Encoder-Decoder 구조(=Seq2Seq) RNN이 One-to-Many, Many-to-Many 등의 다양한 구조를 갖는다는 것을 이전 RNN 포스팅에서 살펴보았다. 그 중 한 형태인 Encoder-Decoder 구조는 Many-to-Many 구조를 약간 변형한 것이라고도 볼 수 있는데, 다음과 같은 형태이다. 인코더-디코더는 이름에서 알 수 있듯이 인코더와 디코더로 이루어진 구조이다. 인코더 파트에서는 주어진 인풋 시퀀스를 히든 스테이트로 변환한다. 디코더 파트는 히든 스테이트를 받아서 아웃풋 시퀀스를 생성한다. 왜 이런 구조를 고안해냈을까? NLP의 맥락에서 이해해보자. 가령 한국어 문장을 영어로 번역하는 RNN 모델을 만든다고 하면, Man..

옵션가격의 내재분포(Implied Distribution)

파생상품 이론 #11 변동성 곡면(Volatility Surface) 이 시리즈는 파생상품 이론 분야에서 가장 유명한 교재인 Hull(2021)의 "Options, Futures and Other Derivatives (11th)"을 요약한 것일 뿐이다. 아래는 책 구매 링크 Options, Futures, and Other Derivatives ISBN-13: 978013693 seungbeomdo.tistory.com GitHub - SeungbeomDo/Financial_Engineering: Practical Codes related to Financial Engineering Practical Codes related to Financial Engineering. Contribute to Seu..

Deep Learning #5 NLP의 개요

1. NLP(Natural Language Processing)의 기본 관점 1.1. NLP의 정의 NLP, 또는 자연어 처리란 인간의 언어를 컴퓨터가 이해할 수 있도록 하는 과제를 말한다. 컴퓨터 비전(CV)과 더불어 딥러닝 기술이 활발하게 적용되고 있는 분야이다. 최근 주목받는 ChatGPT도 자연어 처리 딥러닝의 일종이다. 1.2. Word Embedding Word embedding이란, 주어진 자연어를 일정한 차원의 벡터로 바꾸어주는 것을 말한다. 컴퓨터가 자연어를 받아들일 때는 사람처럼 직관적으로 받아들이는 것이 아니고 0과 1로 구성된 수열로서 받아들인다. 따라서 NLP의 첫번째 과제는 주어진 자연어를 컴퓨터에 '입력'하는 것이다. 일반적으로 하나의 단어는 N차원의 기본단위벡터(하나의 원소만..