seungbeomdo

  • 홈
  • 태그
  • 방명록

seq2seq 1

Deep Learning #7 Transformer

1. Transformer의 도입 1.1. Transformer의 아이디어 이전 포스팅에서 Attention에 대해서 다루었다. 그런데 Attention을 공부하다보면, 결국 RNN처럼 시퀀스 순서대로 인풋들을 받을 필요가 있을까, RNN 구조를 유지하는 것이 꼭 필요할까 하는 의문이 든다. 왜냐하면 시퀀스 데이터에 RNN과 Encoder-Decoder를 사용했던 것은 단 하나의 인풋 벡터뿐 아니라 모든 인풋 시퀀스들을 고려하기 위함이었기 때문인데, Attention만을 사용하더라도 어차피 모든 인풋 시퀀스들에 적당한 가중치들을 두고 아웃풋을 만들어낼 수 있기 때문이다. 그래서 그냥 Attention만을 사용하자! 라는 아이디어 하에서 등장한 모델이 있는데, 그게 바로 Transformer이다. Tran..

머신러닝&딥러닝 2023.03.05
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (134) N
    • 리스크관리&금융감독법규 (21) N
    • 파생상품&금융공학 (37)
    • 시계열&계량경제학 (30)
    • 머신러닝&딥러닝 (19)
    • 데이터분석&인과추론 (5)
    • 수학&확률이론 (0)
    • 재무론&투자론 (9)
    • 거시경제학 (4)
    • 유용한것 이것저것 (4)
    • 생활&생존&생각 (5)

Tag

머신러닝, 회귀분석, 바젤, 계량경제학, 정상성, 내부등급법, 금융, ols, 시계열, 파생상품, RWA, 옵션, 딥러닝, 신용리스크, 위험가중자산, 블랙숄즈머튼, 내생성, 표준방법, BIS, 기업재무,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

  • email

티스토리툴바