딥러닝 (13) 썸네일형 리스트형 BiSeNet V2 : Bilateral Network with Guided Aggregation for Real-time Semantic Segmentation 초록 Semantic segmentation을 위해서는 low-level detail과 high-level semantics가 중요하다. 그러나 빠른 속도를 위해 많은 방법론에서 low-level details를 희생시켰다. 이 논문에서는 그 대신 spatial detail과 categorical semantics를 따로따로 분리해서 취급한다. 구조 Detail Branch : wide channels와 shallow layers가 있어서 low-level details와 high-resolution feature representation captur Semantic Branch : narrow channels와 deep layers로 high-level semantic context 취득 Guided.. DeepLabv3+ 논문 리뷰 Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation 논문 (DeepLabv3+)를 리뷰해보려고 한다. 18년도에 나온 논문으로 3232회 인용되었다. 구조적으로 17년도에 발표된 DeepLabv3에 decoder 모듈을 더한 것이 특징이다. Semantic Segmentation을 하기 위해서는 두가지 방법이 있다. 1. Spatial pyramid pooling 모듈 사용 (multi-scale contextual 정보 추출 가능) 2. Encoder-decoder 구조 (점진적으로 공간 정보를 확장시키기 때문에 디테일한 경계 얻을 수 있음) 일반적으로 이미지가 DCNN을 거쳤을 때 마지막 피쳐맵에 풍부한 s.. (풀잎스쿨 14기) Deeplab v2 논문 리뷰 본 포스팅은 모두의연구소(home.modulabs.co.kr) 풀잎스쿨에서 진행된 'Semantic Segmentation 논문으로 입문하기' 과정 내용을 공유 및 정리한 자료입니다. Deeplab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs 논문 (Deeplabv2)을 리뷰해보려고 한다. 7167회 인용된 논문으로 14년도에 FCN, Deeplabv1가 나오고 15년도에 DilatedNet이 나온 이후 발표된 논문이다. Deeplabv1이 DCNN 부분에서 atrous convolution을 사용하고, CRF를 사용한 것에 집중했다면, Deeplabv2는 atro.. Unet 논문 리뷰 요즘은 Semantic Segmentation 관련 풀잎스쿨을 수강하고 있다. 이번 주차엔 SegNet, U-Net, U-Net++에 대해 공부해봤는데, U-Net은 일하면서도 쓸 일이 있어서 자세히 공부할 수 있었다. 일단 U-Net은 지난번에 포스팅한 DeconvNet과 마찬가지로 Semantic Segmentation을 위한 알고리즘이다. (대충 들어보면 Semantic Segmentation의 시초가 FCN, 큰 획을 그은 것이 U-Net, 요즘 대세가 Deeplab v3인 것 같다) 특징 1. 네트워크가 두 부분으로 구성됨 특징/맥락을 학습하는 contracting path 정확한 localization을 위한 expanding path 2. augmentation 활용 학습함 -. shift,.. Learning Deconvolution Network for Semantic Segmentation 논문 리뷰 이 논문은 2015년에 ICCV 학회에 발표된 논문이다. 성능이 크게 좋아지진 않았지만, FCN의 단점을 명확하게 짚고 이를 해결하기 위한 방법을 잘 설명해주었다. 초록 Deconvolution Network은 VGG16를 사용한 Convolution layer 위에 deconvolution, unpooling layer로 구성된 Deconvolution layer를 쌓은 구조이다. 이미지 내에서 추출한 proposal들을 네트워크에 넣어서 얻은 output들을 결합해서 최종적으로 segmentation map을 만들어 내는 형식으로 진행된다. FCN에서는 압축된 피쳐로부터 갑자기 큰 비율로 (32배, 16배, 8배) upsampling하여 인풋과 동일한 크기의 output을 얻었다. 그 결과 일부 정보.. Continual Learning (2) Deep Generative Replay 논문 번역 이 글은 Continual Learning을 위한 방법 중 첫 번째로 메모리를 활용한 Deep Generative Replay 구조를 설명한 논문을 번역한 글입니다. 이는 우리의 뇌에서 영감을 받아 generator, solver의 두 네트워크로 구성된 모델(scholar)를 학습시키는 프레임워크입니다. 이 논문의 가장 큰 특징은 generator 네트워크를 사용해서 이전 tasks에서 학습한 분포를 기반으로 데이터를 생성시킬 수 있다는 것입니다. 이렇게 생성한 데이터와 함께 새로운 task에 대한 실제 데이터를 모델에 넣어줌으로써 새로운 task를 학습하더라도 이전 tasks에 대한 성능을 유지할 수 있게 됩니다. (번역하는 과정에서 이해가 가지 않는 말이나 매끄럽지 못한 문장들도 있는데 양해 부탁드립.. 적은 데이터로 딥러닝 잘 학습하기 딥러닝의 정확도를 향상시키기 위해서는 엄청난 양의 레이블링된 데이터가 필요합니다. 그런데 학습 이미지의 개수가 충분하지 않은 경우, 혹은 레이블링되어 있는 이미지가 없어서 그 엄청난 양의 이미지에 대해 직접 레이블링하기 너무 힘들고 귀찮은 경우(?) 어떻게 접근하면 좋을까요? 이에 대해 검색해보다가 아래 출처에 있는 좋은 글을 발견해서 번역/추가 정리하여 작성해보았습니다. 요약 1. 이전에 학습된 지식 활용하기 1) Transfer Learning 2) Domain Adaptation 2. 유사도 기반 방식 1) Few-shot learning 1. 이전에 학습된 지식 활용하기 사람이 이미 알고 있는 지식과 관련지어 이와 유사한 새로운 지식을 습득하는 것처럼, 머신러닝/딥러닝 알고리즘도 하나의 task에.. [STR] What Is Wrong With Scene Text Recognition Model Comparisons? Dataset and Model Analysis 논문 분석 영상 내 텍스트 인식하는 일을 하게 되어 네이버에서 공개한 코드를 사용해보았습니다. 그런데 역시나 제 이미지로 돌리면 잘 안나오기 마련이죠.. 그래서 (성능향상을 위해) 관련 논문을 읽고 여기서 사용한 모델의 구조를 이해해보려고 합니다. 시작! "STR 모델 비교 뭐가 문제인가?!!?!?!?! - 데이터셋과 모델 분석" 위 논문 제목에서부터 알 수 있듯 이 논문에서는 기존의 STR (Scene Text Recognition) 모델들을 공정하게 평가하기 위해 데이터셋과 모델을 분석하여 표준화하였다. 모델 별로 중구난방이었던 데이터셋을 일치시켰으며, 4단계의 STR 프레임워크를 제안하여 각 단계마다의 모듈을 객관적으로 평가할 수 있게한 것이다. 초록 내용은 다음과 같다. Scene Text Recogniti.. 이전 1 2 다음