[20230223 경량화] Model Compression
페이지 정보
본문
제목 : Model Compression(Pruning and Quantization / Transferred, Compact Convolutional Filter)
참고논문 :
A Survey of Model Compression and Acceleration for Deep Neural Networks
Recent Advances in Efficient Computation of Deep Convolutional Neural Networks
Revisiting Knowledge Distillation An Inheritance and Exploration Framework
요약 : 다양한 경량화 기법 중 Pruning and Quantization, Transferred/Compact Convolutional Filter에 대한 소개
기타 : 소개한 다양한 기법 중 GhostNet, Dilated Convolution 등 몇 가지 기법에 대해 고도화 예정
참고논문 :
A Survey of Model Compression and Acceleration for Deep Neural Networks
Recent Advances in Efficient Computation of Deep Convolutional Neural Networks
Revisiting Knowledge Distillation An Inheritance and Exploration Framework
요약 : 다양한 경량화 기법 중 Pruning and Quantization, Transferred/Compact Convolutional Filter에 대한 소개
기타 : 소개한 다양한 기법 중 GhostNet, Dilated Convolution 등 몇 가지 기법에 대해 고도화 예정
첨부파일
-
[230223] Model Compression_정화용.pdf (1.5M)
DATE : 2023-02-24 13:13:43
- 이전글[20230222 최적화] 3D heterogeneous bin packing framework for multi-constrained problems using hybrid genetic approach 23.02.26
- 다음글[20230217 통합세미나] TRANSFERRING INDUCTIVE BIASES THROUGH KNOWLEDGE DISTILLATION 23.02.21
댓글목록
등록된 댓글이 없습니다.