본문 바로가기

Computer Vision11

Fast/Faster RCNN 한눈에 비교 이 글을 읽기 전에,2021.04.25 - [Computer Vision/Object Detection] - RCNN(Regions with CNN)을 읽어오시면 더 쉽게 이해할 수 있습니다 ㅎㅎ 2-stage object detection 모델의 시초가 되는 RCNN의 문제점을 나열하자면 다음과 같습니다. CNN, Bounding Box Regression, SVM세가지 모델을 end-to-end로 학습시키지 않고 따로따로 학습을 진행하므로 SVM과 Regression의 결과가 CNN의 학습에 반영되지 않습니다. Region proposal로 추출된 약 2000개의 영역에 대해서 각각 CNN을 통과시켜야 하므로 매우 긴 연산시간을 요구합니다. Selective search를 CPU로 연산하여 계산 효율.. 2022. 8. 23.
DeiT(Training Data-efficient Image Transformers & Distillation Trough Attention) Introduction 이번에는 페이스북에서 발표된 "Training Data-efficient Image Transformers&Distillation Through Attention" 줄여서 "DeiT"논문을 리뷰 해볼려고 합니다. 최근들어서 트랜스포머 관련된 논문이 쏟아져 나오고 있습니다. 그 중에서 가장 대표적인 모델이 ViT입니다. ViT에 대해서 모르시는 분들은 여기를 참고해주시고 들으시면 도움이 될 거 같습니다. ViT의 장점으로는 Imagenet 데이터에 대해서 SOTA에 가까운 성능을 보여주었지만, 단점으로는 높은 자유도로 훈련에 많은 양의 데이터가 필요로 하는 문제점이 있었습니다. 이 논문에서는 Konwledge Distillation(지식 증류)방법을 이용한 Transfomer모델을 .. 2022. 8. 21.
ViT(Vision Transformer) Abstract 이 논문이 발표되기 까지는 트랜스포머는 자연어 처리 태스크에서는 표준 모델이라고 할 만큼 많이 사용되고 있었지만, 컴퓨터 비전 태스크에서는 많이 사용되지 않았다. 비전 분야에서는 Attention이 CNN의 일부로써 적용되어왔습니다. 놀라운 점은 CNN을 사용하지 않고도 이미지 패치의 시퀀스에 적용된 Transformer로만으로도 이미지 분류 문제에서도 좋은 성능을 보여주었다는 것입니다. Introduction What is Transformer? "Attention Is All You Need" Transformer: Attention만 활용해 모델 구축 Transformer의 핵심 아이디어 : Self Attention Self Attention을 설명하기 전에 Attention에 대.. 2022. 8. 21.
Dense Learning based Semi-Supervised Object Detection[CVPR2022] Abstract Semi-supervised object detection (SSOD)는 방대한 unlabeled data의 도움으로 objetct detector의 training과 deployment를 목표로 합니다. 그렇지만 대부분의 SSOD method들은 anchor-based detector입니다. 실제 real-world application들에서 사용되는 detector은 anchor-free detector가 더 알맞습니다. 이 논문에서는 anchor-free detecor의 SSOD 방법인 "DenSe Learning (DSL)를 제안합니다. 이 방법은 크게 Adaptive Fitering(AF), Aggregated Teacher(AT), 그리고 Uncertainty Consisten.. 2022. 8. 21.