[20260121 통합 세미나] Self Supervised Learning for Stain Variations in Pa…

페이지 정보

profile_image
작성자 박소영
댓글 0건 조회 67회 작성일 26-01-23 16:00

본문

[일시] 2026.01.21

[세미나 주제] Self Supervised Learning for Stain Variations in Pathology

[발표자] 박소영

[요약]
이번 발표에서는 병리 영상에서 발생하는 stain variation 문제를 domain-shift 관점에서 분석하고 이를 self-supervised learning 기반 표현 학습으로 해결하려는 두 가지 대표적 접근법을 소개하였다. 병리 영상은 병원, 스캐너, 염색 프로토콜 차이로 인해 색상,대비, 텍스처 분포가 크게 달라지며 이러한 stain variation은 학습 환경과 실제 임상 환경 사이의 분포 불일치를 유발하여 모델의 일반화 성능을 크게 저하시킨다. 기존의 stain normalization 기반 전처리는 참조 이미지 의존성과 정보 왜곡 문제를 가지며 근본적인 일반화 문제를 해결하지 못한다는 한계를 가진다.

첫 번째 논문인 Stain-Invariant Self-Supervised Learning은 stain을 입력에서 제거하는 대신 표현 공간에서 직접 불변 표현을 학습하는 전략을 제안한다. 동일 조직의 raw 이미지와 stain-normalized 이미지를 쌍으로 구성하고 contrastive learning을 통해 서로 가까운 latent embedding으로 정렬되도록 학습한다. 이때 stain variation 자체를 학습 목표로 명시적으로 설정하여 일반적인 augmentation 불변성 학습과 차별화된다. BRACS, HER2, CAMELYON17 실험에서 normalization target에 의존하지 않고 일관된 성능을 유지하며 t-SNE 시각화와 affinity 구조 분석을 통해 stain 불변성이 표현 공간에서 구조적으로 형성됨을 보였따. 다만 raw-normalized pair 구성에 stain normalization이 여전히 필요하며 stain 외 다른 도메인 요인에 대한 확장은 제한적이라는 한계도 함께 제시되었다.

두 번째 논문인 Stain-Adaptive Self-Supervised Learning(SASSL)은 stain을 제거 대상이 아닌 적응해야 할 도메인 요인으로 재정의한다. 여러 WSI를 서로 다른 stain domain으로 간주하고 배치 내 stain 관계를 affinity matrix로 모델링한 뒤 domain discriminator와 adversarial training을 통해 stain 구분을 어렵게 만드는 방향으로 표현을 학습한다. 이후 학습된 generic extractor를 다양한 Downstream task에 적용하고 residual connection과 attention fusion을 통해 task-specific feature와 결합한다. PANDA 분류, BreastPathQ 회귀, segmentation 실험에서 classification, regression, segmentation 전반에 걸쳐 일관된 성능 향상을 보이며 stain adaptation이 task-agnostic한 표현 학습으로 효과적임을 입증하였다. 반면 구조적 복잡도 증가와 stain 정의의 모호성, 다른 도메인 요인 미반영은 제한점으로 남는다.

두 방법은 모두 stain variation을 representation learning 단계에서 직접 다룬다는 공통점을 가지지만 관점이 다르다. Stain-Invariant SSL은 stain 정보를 제거하여 불변 표현을 학습하는 데 초점을 두고 SASSL은 stain을 명시적 도메인 요인으로 모델링하여 적응 가능한 표현을 학습한다. 요약하자면, 첫 번째 논문은 normalization 의존을 최소화한 불변 표현 학습 전략이고 두 번째 논문은 adversarial adaptation을 결합한 도메인 적응형 self-supervised 학습 프레임워크로 병리 환경에서 domain shift를 다루는 두 가지 대표적 방향을 제시한다.

Q : 첫 번째 논문에서 stain normalization 기법으로 타깃 염색 스타일에 맞춘다고 하셨는데 이는 수식적인 기법인가요 아니면 딥러닝 기법을 사용한건가요?
A : 첫 번째 논문에서 사용한 stain normalization 기법은 딥러닝 기반 모델이 아닌 기존에 널리 사용되어 온 전통적인 수식 기반 색상 정렬 기법입니다. 색상 분해와 통계 정렬을 이용해 stain space를 추정하고 참조 stain 분포에 맞게 재조합하는 방식이 사용됩니다. 이러한 방법들은 학습을 통해 parameter를 최적화하는 딥러닝 방식이 아닌 행렬 분해나 히스토그램 정렬과 같은 비학습 기반 알고리즘에 속합니다. 본 논문에서 stain normalization은 새로운 기법으로 제안된 것이 아닌 raw 이미지와 normalized 이미지를 쌍으로 구성하기 위한 도구로 사요오디며 핵심 기여는 normalization 자체가 아니라 이러한 쌍을 이용해 Representation space에서 stain 불변 표현을 학습하는 데 있습니다.

Q : Stain normalization으로 염색 스타일을 맞추더라도 형태학적 구조가 raw 이미지와 달라질 수 있는데 이를 같은 positive pair로 보고 학습하는 것이 타당한가요?
A : 해당 방법은 stain normalization이 색상 분포만 변경하고 조직 구조와 형태학적 정보는 충분히 보존한다는 가정 하에 raw 이미지와 Normalized 이미지를 같은 positive pair로 취급합니다. 두 이미지는 동일한 조직과 의미를 가지며 색상만 달라진 샘플이라는 전제 위에서 contrastive learning을 구성합니다. 하지만 실제로 stain normalization 과정에서는 색상 분해 오류, 대비 변화, 경계 흐림 등으로 인해 핵 밀도나 조직 경계와 같은 미세 형태학적 구조가 일부 왜곡될 가능성이 있습니다. 이러한 경우 positive pair 자체가 완전히 동일한 의미를 가진 샘플이라고 보기 어려울 수 있습니다. 실제로 논문에서도 raw-normalized pair 구성이 normalization 기법에 의존한다는 점과 완전히 Normalization-free 학습이라고 주장하기 어렵다는 한계를 명시하고 있습니다. 따라서 본 방법은 Normalization이 구조 정보를 충분히 보존한다는 비교적 강한 가정 위에서 성립하며 normalization 품질에 따라 학습 안정성과 성능이 영향을 받을 수 있습니다.

Q : 두 논문의 방향이 다른 것 같은데 두 논문을 직접 비교한 실험이나 논문은 없었나요?
A : 제가 찾아본 범위에서는 두 방법을 동일 프로토콜로 직접 비교한 연구는 보고되지 않았고 대부분 두 접근을 관련 연구로 함께 인용하는 수준에 있습니다. 이는 두 방법이 stain을 정의하는 관점과 학습 및 평가 세팅이 달라 공정한 head-to-head 벤치마크를 구성하기 어렵기 때문입니다.

[관련논문]
- Stain-invariant self supervised learning for histopathology image analysis
- Stain-Adaptive Self-Supervised Learning for Histopathology Image Analysis

[녹화영상]
https://us06web.zoom.us/rec/share/njtTxUHH4hWAnrlQx6ZjjAHAPji_el__oCOTA46Z4hhzaDQECe2cgISlTcQzstQf.aHwPfwX2hAQxV4P5

첨부파일

댓글목록

등록된 댓글이 없습니다.