본문 바로가기
  • 책상 밖 세상을 경험할 수 있는 Playground를 제공하고, 수동적 학습에서 창조의 삶으로의 전환을 위한 새로운 라이프 스타일을 제시합니다.

전체 글75

[2023-2] 정성윤 Very Deep Convolutional Networks For Large-Scale Image Recognition 개요 VGGNet은 2014년 옥스포드 대학 연구팀 VGG에 의해 개발된 CNN 모델이다. AlexNet이후 VGG에 의한 성능 향상으로 컴퓨터 비전 분야에서는 CNN을 활용한 모델들이 본격적으로 나오기 시작했다. 이후 2015년 ResNet을 통해 컴퓨터 비전은 인간의 능력을 뛰어넘게 된다. ResNet에 대해선 다음주에 리뷰하고 발표할 예정이다. 이 논문의 주요 골자는 매우 작은 convolution 필터(3x3)를 이용해 매우 깊은 Layer의 학습을 해내는 것이다. 본 논문에서는 16에서 19 Layer까지 파고들게 된다. 배경 CNN은 많은 이미지가 저장된 이미지 저장소(예를 들면 ImageNet)이 생긴 덕분에 2014년 당시부터 비전 분야에서 성공을 거두기 시작한다. 그 과정에서 기존 구조에.. 2023. 12. 1.
[2023-2] 주서영 - Very Deep Convolutional Networks For Large-Scale Image Recognition Very Deep Convolutional Networks for Large-Scale Image Recognition In this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3x arxiv.org Astract large-scale의 이미지 및 영상 인식에서 Convolution networks(ConvNets.. 2023. 11. 28.
[2023-2] 박태호 - You Only Look Once: Unified, Real-Time Object Detection https://arxiv.org/abs/1506.02640 You Only Look Once: Unified, Real-Time Object Detection We present YOLO, a new approach to object detection. Prior work on object detection repurposes classifiers to perform detection. Instead, we frame object detection as a regression problem to spatially separated bounding boxes and associated class probabili arxiv.org Abstract - 객체 탐지 및 분류를 하나의 신경망으로 진행하는 YOLO.. 2023. 11. 28.
[2023-2] 양소정 - Improving Language Understanding by Generative Pre-Training https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf Abstract 자연어 이해는 textual entailment, question answering, semantic similarity assessment, document classification 등 다양한 작업으로 구성됨 Unlabeled corpora는 풍부하지만, 이러한 특정 작업을 학습하기 위한 labeled corpora는 부족하여 모델이 차별적으로 학습하기 어려움 Open AI는 다양한 unlabeled text corpora에 기반한 GPT language 모델과 specific task 각각에 대한 fine-tuning.. 2023. 11. 28.