[20250312 통합세미나] Contrastive Learning with Mixup Augmentation for Clas…

페이지 정보

profile_image
작성자 백승준
댓글 0건 조회 26회 작성일 25-03-16 02:23

본문

[일시]
2025.03.12

[세미나 주제]
Contrastive Learning with Mixup Augmentation for Classification of Histopathological Patterns

[발표자]
백승준

[요약]
본 발표에서는 세포의 병리 조직학적 특성을 구분하기 위한 효과적인 표현학습 기법을 제안한다. 세포의 병리 조직학적 특성은 환자의 폐선암 발생 여부를 판단하는데, 중요한 역할을 한다. 특정 조직학적 특성이 지배적인 비율로 나타나는 경우, 환자의 예후가 좋지 않고, 조기 치료를 필요로 한다. 그러나 세포 조직학적 특성에 대한 양질의 레이블 데이터를 확보하는 데 어려움이 존재한다. 본 연구는 해당 문제를 Manifold Mixup Augmentation을 활용한 Supervised Contrastive Learning을 통해 해결하고자 한다. Supervised Contrastive Learning은 동일한 레이블의 데이터를 Feature Spacer 공간에서 더 가깝게 위치하게 하며, 서로 다른 레이블의 데이터는 멀게 위치하도록 학습한다. 그러나, 이러한 Supervised Contrastive Learning을 실제 세포 조직학적 특성 분류에 적용하면 과적합 문제가 발생한다. Manifold Mixup은 원본 이미지 데이터를 Mixup 하는 것이 아닌, hidden representation 상태에서 Mixup을 적용하여 모델의 일반화 성능을 향상시키고, 과적합 문제를 완화한다. 본 연구는 Manifold mixup data를 활용하여 feature space 상에서 Mixup data를 λ 와 1-λ 만큼만 가까워지도록 학습하여 클래스의 Intra Cluster가 너무 작아지지 않도록 제한하며, 과적합 문제를 해결한다. 본 연구는 제안 기법이 기존 지도학습 방법론들 보다 높은 성능을 보임을 실험적으로 입증하였다.

[질문 사항]
1. Supervised Contrastive Learning(SCL)이 Cross Entropy Loss(CE Loss) 보다 Noise에 강건한 이유
CE Loss는 개별 샘플을 정답 레이블에 맞추려고 강제적으로 학습하는 반면 데이터 간의 관계를 학습하기 때문에 feature space가 더 구조적으로 형성됩니다. 같은 클래스 내에서도 다양한 샘플들이 적절한 위치에 배치되면서, 노이즈 데이터가 잘못된 위치에 있어도 전체 구조에 미치는 영향이 줄어들게 됩니다.
  예시를 들어서 설명 드리겠습니다. A,B라는 클래스가 존재할때 어떤 데이터 x가 실제로 A 클래스인데, B라는 클래스로 잘 못 레이블링 되어있는 문제 상황을 가정하겠습니다. 이 경우 x가 B로 잘못 레이블링 되었으면, CE Loss는 x가 B 클래스로 분류되도록 강하게 학습하려 하고, x가 feature space에서 B 근처로 이동하여, 잘못된 결정 경계(decision boundary)가 형성될 가능성이 높아짐.
 반면 Supervised Contrastive Loss에서는 같은 클래스 샘플들을 서로 가깝게 학습시키므로, x가 완전히 B쪽으로 가기 어려워집니다. 잘못된 레이블을 가진 x가 B 클래스로 묶이려고 해도, 원래 A 클래스에 속한 다른 A 샘플들이 더 가깝게 위치하고 있어서 강한 영향을 받습니다. feature space에서 x는 완전히 B로 가는 게 아니라 A와 B 사이의 중간 지점에 위치하게 될 가능성이 높습니다. 따라서 모델이 노이즈 데이터에 과적합하지 않고 더 부드럽고(global한) 결정 경계를 형성하게 됩니다.

2. Manifold Mixup을 여러 Layer에서 수행하는 과정
본 논문에서 제시하는 기법은 여러 Layer에서 추출한 Feature를 concat하여 Mixup을 수행하지 않고, 각 미니배치마다 하나의 특정 층에서 Mixup을 수행하였습니다. 여러 층에서 동시에 Mixup을 수행하는 것이 아니라, 각 미니배치에서 Mixup을 적용할 층 k를 랜덤하게 선택하여 학습을 진행하였습니다.

[관련 논문]
- A Simple Framework for Contrastive Learning of Visual Representations
- Supervised Contrastive Learning
- MixCo: Mix-up Contrastive Learning for Visual Representation
- mixup: Beyond Empirical Risk Minimization
- Manifold Mixup: Better Representations by Interpolating Hidden States

[발표 영상]
https://us02web.zoom.us/rec/share/NF04idlqHDu2aZNEHUWCNqjvkCLlEJlmj01z3LgH3oISGWQjfBEZjc1Cl2EC7Pum.hviKrmzp-cqxX5zw

첨부파일

댓글목록

등록된 댓글이 없습니다.