[230713] Self-Supervised Learning, Self prediction and contrastive lea…

페이지 정보

profile_image
작성자 강민정
댓글 4건 조회 126회 작성일 23-07-13 15:09

본문

일시 : 2023년 7월 13일

발표자 : 강민정

제목 : Self-Supervised Learning, Self prediction and contrastive learning

요약: 방학 내 진행하는 Self-Supervised Learning에 대한 첫 번째 세미나 시간이었습니다. Self-Supervised learning, Andrew Zisserman와 Self-Supervised Learning: Self-prediction and Contrastive Learning, Liian Weng, Jong Wook Kim을 기반으로 SSL의 전반적인 내용에 대한 발표를 진행하였습니다.  첫 세미나인만큼 SSL에 대한 기본적인 소개에 대한 내용들로 발표 자료를 구성하였습니다. 특히, self prediction과 contrastive learning 관점에서 각 개별 기법들에 대해 정리하였습니다. 최근 중요한 연구 주제이니만큼 관련 논문들이 많아 해당 부분들을 깊게 리뷰해보는 세미나 시간이 되면 좋겠습니다.

첨부파일

댓글목록

profile_image

강지연님의 댓글

강지연 작성일

오늘은 self-supervised learning 세미나의 첫 번째 날로 강민정 연구원께서 SSL의 전반적인 내용에 대해 잘 알려주셨습니다. supervised learning으로 학습을 진행할 때에 사실 대부분의 데이터에는 label이 없는 경우가 많고, label을 따로 구축하게 되면 많은 시간과 비용이 발생하게 되기 때문에 unsupervised learning의 일종으로 unlabelled 데이터에서 좋은 representation을 얻고자 하는 학습 방식인 self-supervised learning이 등장하게 되었습니다. 먼저 소개해 주셨던 self-prediction에는 이전 정보를 가지고 미래를 예측하는 autoregressive generation, masked generation, Innate relationship prediction, hybrid self-prediction이 있었습니다. 그중에서도 저는 masked generation의 한 종류인 context autoencoder가 흥미롭게 느껴졌습니다. 특정 패치를 삭제하고 그 부분에 대해서 생성하는 기법이 실제로 가능한 것인지, missing region 주변 픽셀의 어떤 정보를 가지고 예측을 수행하는 것인지 자세히 알고 싶어졌습니다. 또, contrastive learning은 비슷한 데이터끼리는 가깝게, 다른 데이터끼리는 멀게 존재하도록 학습을 진행하는데 따라서 데이터의 label을 알지 못하더라도 원본 데이터를 변형시킨 데이터는 similar, 다른 데이터에서 파생된 데이터는 dissimilar로 정의하여 학습이 진행된다고 합니다. 그중에서 simCLR은 서로 다른 조합을 가지고 augmentation을 진행하는데 그중에서도 color와 crop 방법을 조합하였을 때가 가장 좋은 확인할 수 있다고 하였는데 그 이유가 조금 궁금했고, 일반적으로 그런 결과를 보이는 것인지 아니면 어디에 적용하여도 둘의 조합이 가장 좋은 것인지 궁금점이 생겼습니다. 이번 세미나를 통해서 self-supervised learning의 개념을 전반적으로 정리하는 시간을 가지고, 여러 기법들을 소개해주신 덕분에 흥미롭게 느낀 부분에 대해서 논문을 찾아 읽고 리뷰해보면 좋겠다는 생각이 들었습니다. 발표 잘 들었습니다 감사합니다 :)

profile_image

이유진님의 댓글

이유진 작성일

민정이가 self-supervised learning 첫 발표로 self-supervised learning의 전반적인 taxonomy를 설명해주었습니다. 모델을 학습할 때 label 데이터가 부족하거나, label 데이터 구축 시 많은 비용과 노력이 필요하다는 문제점이 존재했습니다. 이러한 문제를 해결하고자 비지도 학습의 하나로, 레이블링 되어있지 않은 데이터를 통해 좋은 data representation을 얻어 학습을 진행하는 학습 방법이 등장하였고, 이 학습 방법을 self-supervised laerning이라고 합니다. 이 방법은 크게 self-prediction, contrastive learning, non-constrastive learning으로 3가지로 구분할 수 있습니다. self- prediction은 autoregressive generation, masked generarion, innate relationship prediction, hybrid self-prediction으로 task가 나눠지며 이러한 모든 방법들은 하나의 sample data를 통해서 다른 부분을 예측하는 방법이고, contrastive learning은 inter-sample classification, feature clustering으로 task가 나눠지고 이러한 방법들은 각 sample data들의 관계를 예측하는 방법입니다. non-contrastive learning은 contrastive learning의 representation collapse에 대한 문제점이 존재하여 이를 해결하고자 한 방법입니다. 각 task마다 차이점이 무엇인지 잘 설명해주셨습니다. 이번발표를 듣게 되면서 전반적인 흐름과 개념에 대해 쉽게 설명해주셔서 금방 이해할 수 있었고, self-supervised learning에 대한 관심이 더욱 높아졌습니다. self-supervised learning 관련 모델들은 성능이 어느정도 나오면 잘 수렴되는 모델이라 할 수 있을지, 빠른 속도로 데이터를 처리하는지 등의 다양한 궁금점이 생겼습니다. 첫 발표로 많은 내용을 잘 정리해 발표해주셔서 잘 들었습니다 ! 감사합니다 !

profile_image

오수빈님의 댓글

오수빈 작성일

전반적인 self-supervised learning에 대한 설명으로 민정언니가 발표해주었습니다. self-supervised learning의 필요성이 더 와닿게 되는 발표였던 것 같습니다. supervised learning과 unsupervised learning의 장단점을 보완할 수 있는 학습 방법이지만, 이러한 학습 방법에는 아직까지 풀어나가야할 문제가 존재한다는 것도 알게되는 발표였습니다.
교수님 질문과 동일하게 저도 Masked generation과 context AutoEncoder의 차이에 대한 궁금증이 있었는데 이 부분에 대해서도 명료하게 잘 설명을 해주어 빠르게 이해가 되었고, 전체적인 self-supervised learning의 흐름에 대해 잘 따라갈 수 있었던 발표였습니다.
세미나에서 여러 질문들을 들으면서 들었던 생각 중 self-supervised learning을 할때에는 계속해서 데이터 불확실성 문제가 따라갈 것 같다는 생각이 들었습니다. 문제를 해결하려면 label의 존재가 큰 영향을 미치겠다고 생각이 들었지만, 그러면 self-supervised learning의 목적에 어긋나버리기 때문에 고민을 많이 해봐야하는 문제 중 하나라고 생각이 들었습니다.
해당 세미나의 observer여서 전반적인 흐름을 잘 따라갈 수 있을까 걱정했는데 이번 발표를 통해 흐름을 잡을 수 있는 기회가 되었던 발표였습니다. 좋은 발표 감사합니다!

profile_image

이상민님의 댓글

이상민 작성일

자기지도학습 스터디의 스타트를 잘 수행한듯 합니다. 직접 듣지는 못했으나, 자기지도학습(self-supervised learning)의 기본 개념이 기존 지도, 준지도, 비지도와 어떠한 면에서 차이가 나는지, 그리고 Pretext task, downstream의 두 단계가 있다는 점과 각 단계 수행방식에 따라서 결과 차이가 날 수 있음을 잘 설명한듯 합니다. 우리가 수행중인 CCTV, 병리학 연구에도 이와 관련된 다양한 연구가 접목 가능할 것으로 보여집니다.