Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- re-identification
- 큐
- NLP
- 파이썬
- deep learning
- Threshold
- numpy
- 임계처리
- Object Tracking
- Object Detection
- cv2
- Python
- level2
- Computer Vision
- OpenCV
- 자료구조
- transformer
- 3D
- reconstruction
- attention
- 논문 구현
- Knowledge Distillation
- flame
- 스택
- 프로그래머스
- 알고리즘
- 딥러닝
- point cloud
- center loss
- Deeplearning
Archives
- Today
- Total
목록self-attention (1)
공돌이 공룡의 서재
[논문 리뷰] Transformer : Attention is All you need / NLP (자연어처리) 모델 트랜스포머
배경 이전에 자연어 처리에서 사용했던 모델들은 recurrent model을 사용한다. 이 모델은 병렬 처리를 사용할 수 없어서 속도가 느리다는 단점이 있었고, 거리가 먼 단어들에 대해서 학습시키기 어려운 단점이 있었다. 이에 대한 해결책으로 거리에 상관없이 단어들의 의존성을 학습시킬 수 있도록 Attention 이 고안되었다. 그러나 Attention 또한 recurrent model과 같이 쓰이므로 어느 정도 한계를 보였다. 이런 배경 속에서, Recurrent model을 쓰지 않고 Attention만 사용하며, 병렬 처리도 가능한 Transformer가 개발되었다. 글을 쓰는 시점에서 인용수가 17000을 넘는다. 이후 나올 BERT, GPT, XLNet, 등의 뿌리가 되는 논문이라서 매우 중요한..
딥러닝/NLP
2021. 2. 9. 19:58