Computer Vision134 [2024-2] 유경석 - Optimizer의 종류와 특성 https://arxiv.org/pdf/1609.04747https://arxiv.org/pdf/1412.6980https://arxiv.org/pdf/1711.05101 0. Gradient Descent란?Gradient descent는 model parameter $\theta$에 대한 손실함수 $J(\theta)$를 최소화시키기 위해서, 현재 시점에서의 변화량을 나타내는 $\triangledown J(\theta)$의 반대방향을 향해서 parameter를 업데이트하는 과정을 의미한다.쉽게 말해, 손실함수의 그래프가 만들고 있는 Downhill을 따라 내려가며 ($\triangledown J(\theta)$의 반대방향을 따라), Valley($\triangledown J(\theta)$의 최솟값)에.. 2024. 12. 13. [2024 - 2] 김동규 - MobileNet: Efficient Convolutional Neural Networks for Mobile Vision Application Abstract MobileNet은 성능 저하를 최소화하고 딥러닝 모델의 크기를 줄이는 것을 목표로 했습니다. 핸드폰이나 임베디드 시스템과 같이 저용량 메모리 환경에서 딥러닝 모델을 적용하기 위해서 파라미터를 감소 시켰고 감소시킨 파라미터만큼 층을 쌓아 성능을 높이는데 집중했습니다. MobilneNet의 경량화를 이해하기 위해서는 Depthwise separable convolution에 대한 개념이 필요합니다.1. Depthwise Separable ConvolutionDepthwise Separable Convolution은 Deptwise convolution 이후에 Pointwise Convolution을 결합한 형태입니다.(1) Depthwise Convolution Depthwise Convo.. 2024. 12. 8. [2024-2] 이재호 CNN의 역사 1 (2012~2015) 이번 포스팅에서는 2012년부터 2015년에 이르기까지 CNN의 다양한 모델들에 대해 알아보겠습니다. # 목차1. AlexNet (2012)2. RCNN (2013)3. VGGNet (2014)4. ResNet (2015) # AlexNet - ImageNet Classification with Deep Convolutional Neural Networkshttps://papers.nips.cc/paper_files/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html ImageNet Classification with Deep Convolutional Neural NetworksRequests for name changes in the el.. 2024. 12. 8. [2024 - 2] 김동규 - GoogLeNet : Going Deeper with Convolutions Abstract2014년 이미지넷 인식 대회에서 VGG를 누르고 1위를 차지한 모델입니다. VGG와 마찬가지로 깊은 층을 구성하여 성능을 향상시켰습니다. VGG19는 19개의 층을, GoogLeNet은 22개의 층으로 구성되어 있습니다. GoogLeNet은 연산을 하는데 소모되는 자원의 효율을 개선했다는 것이 특징입니다. 잘 설계된 구조를 통해 모델의 깊이나 폭을 늘려도 연산량이 증가하지 않는다고 합니다. GoogLeNet을 최적화하기 위해 Hebbian priciple과 multi-scale processing을 적용하였고, 이 구조를 GoogLeNet이라 부른다고 합니다. 1. Introduction 지난 3년간, 딥러닝의 발전 덕에 CNN 분야에서 큰 발전이 이루어져 왔습니다. 이러한 발전은 단지.. 2024. 12. 8. 이전 1 ··· 22 23 24 25 26 27 28 ··· 34 다음