Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Knowledge Distillation
- 알고리즘
- Deeplearning
- Object Tracking
- cv2
- reconstruction
- Computer Vision
- deep learning
- point cloud
- 논문 구현
- level2
- OpenCV
- 스택
- 임계처리
- transformer
- NLP
- Threshold
- 자료구조
- 3D
- center loss
- Object Detection
- 프로그래머스
- attention
- 파이썬
- 큐
- numpy
- flame
- 딥러닝
- Python
- re-identification
Archives
- Today
- Total
목록트랜스포머 (1)
공돌이 공룡의 서재
[논문 리뷰] Transformer : Attention is All you need / NLP (자연어처리) 모델 트랜스포머
배경 이전에 자연어 처리에서 사용했던 모델들은 recurrent model을 사용한다. 이 모델은 병렬 처리를 사용할 수 없어서 속도가 느리다는 단점이 있었고, 거리가 먼 단어들에 대해서 학습시키기 어려운 단점이 있었다. 이에 대한 해결책으로 거리에 상관없이 단어들의 의존성을 학습시킬 수 있도록 Attention 이 고안되었다. 그러나 Attention 또한 recurrent model과 같이 쓰이므로 어느 정도 한계를 보였다. 이런 배경 속에서, Recurrent model을 쓰지 않고 Attention만 사용하며, 병렬 처리도 가능한 Transformer가 개발되었다. 글을 쓰는 시점에서 인용수가 17000을 넘는다. 이후 나올 BERT, GPT, XLNet, 등의 뿌리가 되는 논문이라서 매우 중요한..
딥러닝/NLP
2021. 2. 9. 19:58