cs231n Lecture 9 | CNN Architectures
페이지 정보
본문
[일시] 2024.09.30
[세미나 주제] CNN Architectures
[발표자] 고예진
[요약]
해당 강의에서는 다양한 Convolutional Neural Network(CNN) 구조에 대해 다루며, 특히 이미지 인식 문제에서 사용되는 주요 아키텍처를 소개하고 비교합니다.
< 주요 아키텍처 >
1. AlexNet (2012): ImageNet 대회에서 큰 성과, ReLU, GPU 활용, Dropout 도입.
2. VGGNet (2014): 단순한 3x3 필터로 구성된 깊은 구조, VGG-16과 VGG-19.
3. GoogLeNet (Inception, 2014): 다양한 크기의 필터를 동시에 활용(Inception 모듈), 1x1 Conv으로 파라미터 수 감소.
4. ResNet (2015): Residual Block으로 깊은 네트워크 학습 가능, 스킵 연결로 기울기 소실 문제 해결.
< 주요 아이디어 >
- Pooling: Max 및 Average Pooling으로 크기를 줄이고 주요 특징 추출.
- 1x1 Conv: 채널 수를 줄이고 연산 효율 증가.
- Batch Normalization: 학습 안정화 및 가속화.
[녹화 영상 링크]
https://us02web.zoom.us/rec/share/vaq7_ILx-nMGHU_2DcDy4as1bkcDIpE2c--i4hgJw6L96jcTEHXJQkpCTRP7dha8.Z7MoiivFSwhz5csJ?startTime=1727697964000
[세미나 주제] CNN Architectures
[발표자] 고예진
[요약]
해당 강의에서는 다양한 Convolutional Neural Network(CNN) 구조에 대해 다루며, 특히 이미지 인식 문제에서 사용되는 주요 아키텍처를 소개하고 비교합니다.
< 주요 아키텍처 >
1. AlexNet (2012): ImageNet 대회에서 큰 성과, ReLU, GPU 활용, Dropout 도입.
2. VGGNet (2014): 단순한 3x3 필터로 구성된 깊은 구조, VGG-16과 VGG-19.
3. GoogLeNet (Inception, 2014): 다양한 크기의 필터를 동시에 활용(Inception 모듈), 1x1 Conv으로 파라미터 수 감소.
4. ResNet (2015): Residual Block으로 깊은 네트워크 학습 가능, 스킵 연결로 기울기 소실 문제 해결.
< 주요 아이디어 >
- Pooling: Max 및 Average Pooling으로 크기를 줄이고 주요 특징 추출.
- 1x1 Conv: 채널 수를 줄이고 연산 효율 증가.
- Batch Normalization: 학습 안정화 및 가속화.
[녹화 영상 링크]
https://us02web.zoom.us/rec/share/vaq7_ILx-nMGHU_2DcDy4as1bkcDIpE2c--i4hgJw6L96jcTEHXJQkpCTRP7dha8.Z7MoiivFSwhz5csJ?startTime=1727697964000
첨부파일
-
cs231n_2017_lecture9.pdf (2.3M)
DATE : 2024-10-03 21:59:51
- 이전글cs231n Lecture 10 | Recurrent Neural Networks 24.10.07
- 다음글cs231n Lecture 7 | Training Neural Networks 2 24.09.30
댓글목록
등록된 댓글이 없습니다.