Dilated Convolution

atrous convolution과 동의어.

JPU (Joint Pyramid Upsampling)

연산량을 최대 3배까지 빠르게 할수 있는 업샘플링 방법이다. 출처 : FastFCN : Rethinking Dilated Convolution in…

ASPP (Atrous Spatial Pyramid Pooling)

DeepLab V2에서 소개된 풀링 방법으로, 빈 공간을 둔 필터를 여러개 병렬로 나열해서 연산량을 줄이고 스케일에 강하게…

코사인 어닐링 (풀림, Consine Annealing)

코사인 형태로 훈련비율(learning rate)을 차츰 조정하면서 좀더 정확도를 상승시킬수 있는 방법이다. 훈련시, 오차와 정답의 차이를 100%…

그룹 정규화 (또는 표준화, Group Normalization)

배치 정규화(표준화)와는 다른 방향으로 데이터를 표준화 작업을 거치는 방법. 한 채널 내의 데이터들을 적당한 수로 모아서(그룹별)…

배치 정규화 (혹은 표준화) Batch Normalization

미니배치에서 (보통은) 활성화 함수전에 해당 데이터들을 모두 Z-score 와 유사한 방법으로 표준화 (Normalization) 함으로써 빠르게 수렴하고…

센텐스피스(SentencePiece)

구글의 비공식 언어 라이브러리로써, 언어에 상관없이 비감독학습으로 문장을 토큰나이즈 (분석단위로 끊는것) 깃허브 : https://github.com/google/sentencepiece

기훈련 모델 (Pretrained Model)

GPU로 제대로된 학습을 돌리기에는 많은 컴퓨팅 파워가 필요하므로, 이미 이론을 개발하거나 라이브러리를 개발하는 측에서 모델을 훈련해놓았다.…

EfficientNet

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks, Mingxing Tan, Quoc V.Le 2019 다양한 Convolution Net들이…

UpSampling2D 와 Conv2DTranspose의 차이

U-net이나 Decoder의 경우 이미지의 크기를 역으로 키울 필요가 있다. UpSampling2D는 케라스 기준 내부적으로 resize_images() 를 호출한다.…