일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 프로그래머스
- reconstruction
- Deeplearning
- numpy
- Python
- Knowledge Distillation
- OpenCV
- 3D
- Computer Vision
- 임계처리
- 스택
- 딥러닝
- Object Tracking
- level2
- 파이썬
- 논문 구현
- Threshold
- transformer
- NLP
- center loss
- re-identification
- 자료구조
- 큐
- Object Detection
- attention
- deep learning
- cv2
- point cloud
- flame
- 알고리즘
- Today
- Total
목록딥러닝/Model (3)
공돌이 공룡의 서재
NIPS 2017 1. Introduction Knowledge distillation 에 대한 연구들이 많이 진행되어 왔지만, 대부분이 Image Classification에 대해 적용되어 왔다. 그렇다면 다른 Task를 수행하는 모델들에 적용할 수 있을까? 논문 저자들은 Multi-Class Object Detection task에 대해 거의 처음으로 성공했다고 한다. 왜 Object detection 에 적용하기가 좀 더 힘들까? 내용을 정리하면 다음과 같다. Detectition은 bounding box 좌표도 구해야 하고, box 내 물체가 어떤 물체인지 classification도 해야한다. 즉, 더 복잡한 task라 볼 수 있고 Image classification 보다 많은 연산량을 필요로..
1. Introduction 기존에 있는 방법들의 issue들을 언급한다. cumbersome model 좋은 성능을 내기 위해서는 model ensemble 방법을 사용할 수 있으나, 연산량이 많고 시간이 오래 걸린다. side effect of normal training 일반적인 학습은 올바른 답에 대한 평균 확률을 최대화하는 것이 목표다. 이런 방식은 모든 오답에도 확률을 할당한다. 예를 들어서, category로 트럭과 BMW와 당근이 있다고 하고 실제 이미지는 BMW라 하자. 모델이 트럭으로 판단할 확률이 작아도 존재하고, 이 확률은 당근으로 판단할 확률보다는 훨씬 큰 값이다. 이는 모델이 training data만으로 어떻게 일반화를 하는지를 말해준다. 이 Intro에서 말하고자 하는 Kno..
CBAM: Convolutional Block Attention Module https://arxiv.org/abs/1807.06521 KAIST 연구실에서 나온 논문이다. 글을 쓰는 시점에 인용수가 2천을 넘어섰다. 멋있고 부럽다. 무튼 이 논문은 아직 ViT처럼 Transformer에 vision분야에서 쓰이기 전이다. attention을 어떤 의미로 해석할 수 있는지, pooling 연산은 어떻게 해석할 수 있는지, 등에 대해 잘 알 수 있는 논문이다. CNN operation에 대한 깊은 이해가 있으면, 논문을 더 잘 읽을 수 있을 것 같다. 여기 참고 [1] Introduction 지금까지 나왔던 CNN-base 모델들을 언급하며, 중요한 요소 몇 가지에 대해 설명하고 있다. 1) Depth: ..