2024 INFORMS Annual Meeting-장효영
페이지 정보
본문
<학회 후기>
지난 10월 20일 부터 23일 간 INFORMS 학회를 다녀왔다. 처음 해외 학회를 참석한 만큼 많은 공부가 되었고, 그간 개인 연구를 진행해옴에 있어서 앞으로의 방향성에 대해 다시 한번 생각해볼 수 있는 기회였다. 먼저 가장 크게 느꼈던 점은 Optimization과 관련한 연구들이 가장 활발하게 진행되고 있었고, 이는 특정 분야에 귀속되지 않고 Medical, LLM, Computer vision 등 여러 연구 분야들에서 진행되고 있었다. 그리고 대부분의 발표들이 수식적으로 매우 강건하였다. Introduction을 제외한 Method, Experiment result에 대하여 여러 수식적인 모델링과 분석이 수반되었으며, 이러한 이유인지 비교적 Naive한 method일지라도 발표자분들께서 본인 연구에 대해 매우 탄탄한 바탕과 확신을 가지고 발표에 임하는 것을 볼 수 있었다. 현재 내가 연구 중인 Rician noise를 적용한 Diffusion model 또한 RIcian noise에 대한 PDF를 기반한 설명과 이를 축적하면서 도출되는 수식적인 derivation 이 필요 되는데 이번 학회를 들으면서 이를 좀 더 수식적으로 강건하게 보완해야겠다는 생각을 하게 되었다. 사실 영어 발표들이 익숙치가 않아 발표 내용을 모두 이해하고 알아들을 수는 없었지만, 번역기를 사용하여 생소한 단어들을 찾아가며 최대한 이해하고자 노력하였고, 3일차, 4일차에서는 발표 내용의 중점된 내용과 의도에 대해서는 좀 더 쉽게 이해할 수 있었다. 학회 이외에도 워싱턴 대학교를 다녀온 것이 기억에 남는다. 살면서 다녀와 본 여러 대학교 캠퍼스 중에 단연 최고라고 할 수 있을 정도로 학교가 웅장하였다. 나는 작지만 정겨운 광운대학교가 너무 좋지만, 이후에 기회가 되고 더 많은 공부를 할 수 있다면 이러한 학교에서 공부를 하고싶다는 생각이 들었다. 이번 시애틀 출장을 통해 학구적으로도, 경험적으로도 성장할 수 있는 매우 좋은 기회가 되었으며, 영어 공부와 개인 연구를 좀 더 보완하여 내년에는 좀 더 적극적으로 질문하고 또 내 개인연구에 대한 주도적인 발표를 할 수 있도록 하겠다. 마지막으로 이렇게 좋은 기회에 해외 학회를 경험하게 해주신 교수님께 진심으로 감사드리며 학회 후기를 마무리 하겠다.
<청취 후기>
10/19
Keynote session2 : Generative models for high dimensional statistical inference
Yao Xie, ISYE, Georgia Institute of Technology
학회 첫날 두번째 keynote session으로 Yao Xie 교수님의 고차원 데이터에 대한 통계적 추론을 위한 생성 모델에 대한 발표를 들었다. 본 발표는 생성 모델의 대표적인 모델인 VAE, GAN, Diffusion model, Flow-based model 이렇게 크게 네 가지 방식의 생성 모델들에 대한 간단하면서도 명료한 설명과 함께 진행되었으며, 특히 Flow-based 생성모델에 대해서 새롭게 알게 되었다. Flow based 생성모델은 데이터에서 노이즈로 혹은 노이즈에서 데이터로의 deteministic한 mapping을 사용하여 확률 추정에 효율적이다. 또한 본 발표에서는 이러한 flow based 모델에 특정 확률 분포가 시간에 따라 다른 target 분포로 변하도록 하여 각 시간 단계마다 wasserstein 거리를 최소화하도록 설정하는 Jorda-Kinderlehrer-Otto (JKO) 방식을 적용한 확률 분포 변환 과정을 제안하였다. 이를 통해 flow based 생성모델에서 분포 간의 이동을 단계적으로 최적화하는 수렴성을 보장하였다는 내용이었다. 분포간의 이동을 추정하는 과정에서 distance 기반의 loss를 사용하여 좀 더 계산 효율적인 아키텍처가 될 수 있었다고 생각이 되었다. 이번 세션을 통해 flow-based generative 모델에 대해 좀 더 관심을 가지게 되었고, 개인적인 생각이지만, distance 기반의 메커니즘인 만큼 domain adaptation 분야에서의 활용가능성에 대해 좀 더 연구해보고자 한다. 좋은 발표를 해 주신 Yao Xie 교수님께 감사드린다.
10/20
SB42 - Generative Diffusion Models: Theories and Applications
Score Approximation, Estimation and Distribution Recovery of Diffusion Models on Low-Dimensional Manifolds
Minshuo Chen, Kaixuan Huang, Tuo Zhao, Mengdi Wang
본 세션은 Diffusion model에 대한 이론적인 기초들을 바탕으로 진행되었다. 특히 모든 발표들이 score function에 초점을 두고 발표를 하였다는 것이 기억에 남았다. 본 세션에서 가장 인상 깊었던 발표는 저차원 공간에 embedding 되는 데이터에 대해 score function approximation 및 분포에 대한 복원 문제를 연구한 발표였다.
본 발표는 먼저 신경망을 통해 score function을 정확히 학습 할 수 있는 지와 이에 대한 네트워크 구조 및 sample에 대한 복잡도를 분석하였다. 이후 학습된 score function을 이용해 diffusion model이 데이터 분포를 얼마나 정확히 추정할 수 있는지를 평가하며, 저차원 데이터에 대한 기하학적인 구조가 estimation 정확도에 미치는 영향을 다루었다. 즉, 본 연구는 데이터에 대한 기하학적인 특성에 초점을 두고 이를 추정하기 위해 score function을 활용하였다. Diffusion을 연구하면서 score function에 기반한 접근법에 대해 다시한번 생각해보게 되었으며, 추후 모델 inference 과정에서 내가 활용한 MRI 데이터에 대한 기하학적인 특성을 기반한 추론이 어떤 이점이 나타날 수 있을까 생각해보게 되었다.
SD10 - Prompt Engineering, Fine Tuning, Alignment and Market Applications of Large Language Models
A Probabilistic Approach for Model Alignment with Human Comparisons
Junyu Cao, Mohsen Bayati
본 세션은 추후 LLM 모델에 대한 fine-tuning이 필요되는 과제 수행 시 도움을 얻고자 참석하게 되었다. 사실 발표 내용들이 상당히 이해하기가 어려웠으며, 생각했던 내용과 초점이 다른 내용들이 많았다. 그중에서도 인간의 직접적인 비교를 통해 AI 모델에 대한 성능을 개선하는 발표가 비교적 naive하지만 직관적으로 이해하기 쉬웠다.
본 발표는 supervised fine-tuning 과 Human comparisons 전략을 사용한 두단계 프레임워크를 제안하였다. 먼저 불확실한 레이블 및 정보가 포함된 데이터에서 저차원 표현을 모델에 학습 시킨 후 Human comparison을 활용해 모델의 ,정밀도를 향상시키는 내용이었다. 즉, 모델이 예측한 두 가지 결과에 대해 인간이 직접 비교를 통해 더 나은 결과를 선택하고 그 피드백을 모델에 반영해 모델에 대한 alignment를 개선하는 내용이었다. 이 과정에서 LNCA를 도입하여 설명을 하였는데,, 사실 LNCA방법론에 대해서 정확히 이해를 하지 못하였다. 다만 노이즈를 줄이고 적은 데이터에서도 높은 성능을 가져올 수 있다는 contribution을 통해 추후 수행하게 될 stayneo과제에서 모델 fine-tuning이후에도 성능이 나타나지 않는다면, Human comparison 전략을 통해 직접적인 비교 선택을 통해 모델 성능을 개선하는 방법을 적용하는 것도 좋은 개선안이 될것이라 생각하게 되었다. 매우 naive해보이지만 LNCA에 대한 이해가 바탕이 된다면 효과적인 방법론이 될 것이라 생각된다.
지난 10월 20일 부터 23일 간 INFORMS 학회를 다녀왔다. 처음 해외 학회를 참석한 만큼 많은 공부가 되었고, 그간 개인 연구를 진행해옴에 있어서 앞으로의 방향성에 대해 다시 한번 생각해볼 수 있는 기회였다. 먼저 가장 크게 느꼈던 점은 Optimization과 관련한 연구들이 가장 활발하게 진행되고 있었고, 이는 특정 분야에 귀속되지 않고 Medical, LLM, Computer vision 등 여러 연구 분야들에서 진행되고 있었다. 그리고 대부분의 발표들이 수식적으로 매우 강건하였다. Introduction을 제외한 Method, Experiment result에 대하여 여러 수식적인 모델링과 분석이 수반되었으며, 이러한 이유인지 비교적 Naive한 method일지라도 발표자분들께서 본인 연구에 대해 매우 탄탄한 바탕과 확신을 가지고 발표에 임하는 것을 볼 수 있었다. 현재 내가 연구 중인 Rician noise를 적용한 Diffusion model 또한 RIcian noise에 대한 PDF를 기반한 설명과 이를 축적하면서 도출되는 수식적인 derivation 이 필요 되는데 이번 학회를 들으면서 이를 좀 더 수식적으로 강건하게 보완해야겠다는 생각을 하게 되었다. 사실 영어 발표들이 익숙치가 않아 발표 내용을 모두 이해하고 알아들을 수는 없었지만, 번역기를 사용하여 생소한 단어들을 찾아가며 최대한 이해하고자 노력하였고, 3일차, 4일차에서는 발표 내용의 중점된 내용과 의도에 대해서는 좀 더 쉽게 이해할 수 있었다. 학회 이외에도 워싱턴 대학교를 다녀온 것이 기억에 남는다. 살면서 다녀와 본 여러 대학교 캠퍼스 중에 단연 최고라고 할 수 있을 정도로 학교가 웅장하였다. 나는 작지만 정겨운 광운대학교가 너무 좋지만, 이후에 기회가 되고 더 많은 공부를 할 수 있다면 이러한 학교에서 공부를 하고싶다는 생각이 들었다. 이번 시애틀 출장을 통해 학구적으로도, 경험적으로도 성장할 수 있는 매우 좋은 기회가 되었으며, 영어 공부와 개인 연구를 좀 더 보완하여 내년에는 좀 더 적극적으로 질문하고 또 내 개인연구에 대한 주도적인 발표를 할 수 있도록 하겠다. 마지막으로 이렇게 좋은 기회에 해외 학회를 경험하게 해주신 교수님께 진심으로 감사드리며 학회 후기를 마무리 하겠다.
<청취 후기>
10/19
Keynote session2 : Generative models for high dimensional statistical inference
Yao Xie, ISYE, Georgia Institute of Technology
학회 첫날 두번째 keynote session으로 Yao Xie 교수님의 고차원 데이터에 대한 통계적 추론을 위한 생성 모델에 대한 발표를 들었다. 본 발표는 생성 모델의 대표적인 모델인 VAE, GAN, Diffusion model, Flow-based model 이렇게 크게 네 가지 방식의 생성 모델들에 대한 간단하면서도 명료한 설명과 함께 진행되었으며, 특히 Flow-based 생성모델에 대해서 새롭게 알게 되었다. Flow based 생성모델은 데이터에서 노이즈로 혹은 노이즈에서 데이터로의 deteministic한 mapping을 사용하여 확률 추정에 효율적이다. 또한 본 발표에서는 이러한 flow based 모델에 특정 확률 분포가 시간에 따라 다른 target 분포로 변하도록 하여 각 시간 단계마다 wasserstein 거리를 최소화하도록 설정하는 Jorda-Kinderlehrer-Otto (JKO) 방식을 적용한 확률 분포 변환 과정을 제안하였다. 이를 통해 flow based 생성모델에서 분포 간의 이동을 단계적으로 최적화하는 수렴성을 보장하였다는 내용이었다. 분포간의 이동을 추정하는 과정에서 distance 기반의 loss를 사용하여 좀 더 계산 효율적인 아키텍처가 될 수 있었다고 생각이 되었다. 이번 세션을 통해 flow-based generative 모델에 대해 좀 더 관심을 가지게 되었고, 개인적인 생각이지만, distance 기반의 메커니즘인 만큼 domain adaptation 분야에서의 활용가능성에 대해 좀 더 연구해보고자 한다. 좋은 발표를 해 주신 Yao Xie 교수님께 감사드린다.
10/20
SB42 - Generative Diffusion Models: Theories and Applications
Score Approximation, Estimation and Distribution Recovery of Diffusion Models on Low-Dimensional Manifolds
Minshuo Chen, Kaixuan Huang, Tuo Zhao, Mengdi Wang
본 세션은 Diffusion model에 대한 이론적인 기초들을 바탕으로 진행되었다. 특히 모든 발표들이 score function에 초점을 두고 발표를 하였다는 것이 기억에 남았다. 본 세션에서 가장 인상 깊었던 발표는 저차원 공간에 embedding 되는 데이터에 대해 score function approximation 및 분포에 대한 복원 문제를 연구한 발표였다.
본 발표는 먼저 신경망을 통해 score function을 정확히 학습 할 수 있는 지와 이에 대한 네트워크 구조 및 sample에 대한 복잡도를 분석하였다. 이후 학습된 score function을 이용해 diffusion model이 데이터 분포를 얼마나 정확히 추정할 수 있는지를 평가하며, 저차원 데이터에 대한 기하학적인 구조가 estimation 정확도에 미치는 영향을 다루었다. 즉, 본 연구는 데이터에 대한 기하학적인 특성에 초점을 두고 이를 추정하기 위해 score function을 활용하였다. Diffusion을 연구하면서 score function에 기반한 접근법에 대해 다시한번 생각해보게 되었으며, 추후 모델 inference 과정에서 내가 활용한 MRI 데이터에 대한 기하학적인 특성을 기반한 추론이 어떤 이점이 나타날 수 있을까 생각해보게 되었다.
SD10 - Prompt Engineering, Fine Tuning, Alignment and Market Applications of Large Language Models
A Probabilistic Approach for Model Alignment with Human Comparisons
Junyu Cao, Mohsen Bayati
본 세션은 추후 LLM 모델에 대한 fine-tuning이 필요되는 과제 수행 시 도움을 얻고자 참석하게 되었다. 사실 발표 내용들이 상당히 이해하기가 어려웠으며, 생각했던 내용과 초점이 다른 내용들이 많았다. 그중에서도 인간의 직접적인 비교를 통해 AI 모델에 대한 성능을 개선하는 발표가 비교적 naive하지만 직관적으로 이해하기 쉬웠다.
본 발표는 supervised fine-tuning 과 Human comparisons 전략을 사용한 두단계 프레임워크를 제안하였다. 먼저 불확실한 레이블 및 정보가 포함된 데이터에서 저차원 표현을 모델에 학습 시킨 후 Human comparison을 활용해 모델의 ,정밀도를 향상시키는 내용이었다. 즉, 모델이 예측한 두 가지 결과에 대해 인간이 직접 비교를 통해 더 나은 결과를 선택하고 그 피드백을 모델에 반영해 모델에 대한 alignment를 개선하는 내용이었다. 이 과정에서 LNCA를 도입하여 설명을 하였는데,, 사실 LNCA방법론에 대해서 정확히 이해를 하지 못하였다. 다만 노이즈를 줄이고 적은 데이터에서도 높은 성능을 가져올 수 있다는 contribution을 통해 추후 수행하게 될 stayneo과제에서 모델 fine-tuning이후에도 성능이 나타나지 않는다면, Human comparison 전략을 통해 직접적인 비교 선택을 통해 모델 성능을 개선하는 방법을 적용하는 것도 좋은 개선안이 될것이라 생각하게 되었다. 매우 naive해보이지만 LNCA에 대한 이해가 바탕이 된다면 효과적인 방법론이 될 것이라 생각된다.
- 이전글2024 INFORMS Annual Meeting-장유나 24.10.27
- 다음글2024 INFORMS Annual Meeting-강지연 24.10.25
댓글목록
등록된 댓글이 없습니다.