[20231012 통합 세미나] How to Apply Curriculum Learning on Knowledge Distil…
페이지 정보
본문
[일시] 2023.10.12
[세미나 주제] How to Apply Curriculum Learning on Knowledge Distillation
[요약]
지식 증류는 pre-trained Teacher 모델에서 Student 모델로 Teacher가 기존에 학습했던 Knowledge 정보를 효과적으로 증류하는 기법이다. 이번 세미나에서는 지식 증류가 기존의 가지고 있던 한계점 및 증류를 더 효율적으로 이전할 수 있는 방안으로 Curriculum Leanring 기법을 적용하는 방안에 대해서 논의한다. 기존의 KD 학습 과정에 적용하였던 curriculum learning 기법에 대한 연구를 소개하며, 보다 더 나은 제안 기법에 대해서 설명한다.
[참고 논문]
- Distilling the knowledge in a neural network
- Knowledge Distillation via Route Constrained Optimization
- Learning From Multiple Experts: Self-paced Knowledge Distillation for Long-tailed Classification
[세미나 주제] How to Apply Curriculum Learning on Knowledge Distillation
[요약]
지식 증류는 pre-trained Teacher 모델에서 Student 모델로 Teacher가 기존에 학습했던 Knowledge 정보를 효과적으로 증류하는 기법이다. 이번 세미나에서는 지식 증류가 기존의 가지고 있던 한계점 및 증류를 더 효율적으로 이전할 수 있는 방안으로 Curriculum Leanring 기법을 적용하는 방안에 대해서 논의한다. 기존의 KD 학습 과정에 적용하였던 curriculum learning 기법에 대한 연구를 소개하며, 보다 더 나은 제안 기법에 대해서 설명한다.
[참고 논문]
- Distilling the knowledge in a neural network
- Knowledge Distillation via Route Constrained Optimization
- Learning From Multiple Experts: Self-paced Knowledge Distillation for Long-tailed Classification
첨부파일
-
231012_How to Apply Curriculum Learning on Knowledge Distillation.pdf (1,008.9K)
DATE : 2023-11-15 20:23:51 -
Distilling the Knowledge in a Neural Network.pdf (104.1K)
DATE : 2023-11-15 20:23:51 -
Jin_Knowledge_Distillation_via_Route_Constrained_Optimization_ICCV_2019_paper 1.pdf (948.6K)
DATE : 2023-11-15 20:23:51 -
Learning From Multiple Experts Self paced Knowledge Distillation for Long tailed Classification.pdf (2.2M)
DATE : 2023-11-15 20:23:51
- 이전글[20231019 통합 세미나] Pseudo labeling for semantic segmentation 23.11.16
- 다음글[20231005 통합 세미나] Curriculum Learning in Digital Pathology 23.10.08
댓글목록
등록된 댓글이 없습니다.