2025 INFORMS Annual Meeting - 김정년

페이지 정보

profile_image
작성자 김정년
댓글 0건 조회 1회 작성일 25-11-07 09:45

본문

<청취 후기>
[MB68: Evaluation and Scalability of LLM Prompting] Evaluation and Scalability of LLM Prompting
본 발표는 유사 질의가 연속되는 환경에서 LLM이 과거 경험(텍스트 메모리)을 활용하여 추론 연산을 적응적으로 줄일 수 있음을 SpeedupLLM 프레임워크로 제시하였다. 핵심은 조기 종료 기반의 연산 예산 할당과 메모리 메커니즘의 결합이며, 유사도 구간에서 최대 56%까지 연산비용을 절감하면서 정확도를 유지, 개선할 수 있다는 실험을 보였다. 사용자의 각 세션의 메모리를 보존하는 방식은 이미 많은 연구가 진행되었고, 사내 LLM등에서 사내 메모리를 유지하는 것에 대한 메모리를 의미한다고 생각하는데, LLM의 비용적 측면에서 생각해보았을 때, LLM의 추가적인 메모리 비용이 매우 높을 것이라고 생각하여, 속도와 비용 두 가지를 모두 고려할 수 있을지 궁금하였다.

[TD68: Interpretable Maching Learning] Robust Fine-tuning with LLM Knowledge and Reasoning: News Headline Generation
본 발표는 선호 기반 미세조정에서 발생하는 보상 해킹을 줄이기 위해, 각 프롬프트에 왜-지식(두 응답 중 선호되는 이유의 간결, 검증된 설명)을 사전 첨부하는 KRA(Knowledge-Regularized Alignment) 절차를 제안하였다. 대규모 언어모델이 가설적 설명을 생성한 뒤 데이터로 검증하여 프롬프트에 prepend함으로써, 피상적 보상 신호가 아닌 일관된 추론 근거에 따라 응답하도록 정렬한다는 점이 핵심이다. 추상적 헤드라인 생성 과제에서 매력도, 관련성을 높이면서 해킹 아티팩트를 유의하게 줄였고, 모델 불문, DPO(Direct Preference Optimization(DPO))와 상보적이라는 실무적 장점이 돋보였다. 금융, 고객상담 LLM에도 설명-정당화 기반 선호학습을 도입해 보상 설계의 취약성을 완화할 수 있는 방향성을 제시한다. LLM을 Fine-tuning할 때 들어가는 데이터가 정답을 포함하고 있는 경우가 많아 본 발표와 비슷한 생각을 해본 적이 있는데 KRA와 같은 방식으로 처리가 가능하다는 것이 매우 흥미로웠고, 차후 LLM Fine-tuning시 고려해보고, 적용해볼 수 있는 좋은 방법이라고 생각하였다.


<학회 후기>
INFORMS 2025 Annual Meeting 참여를 위해 6박 7일 일정으로 미국 애틀랜타를 다녀왔다. 해외 학회는 처음이고, 영어로만 진행되다는 점이 부담으로 다가왔으나, 날이 지속될수록 영어가 잘 들리기 시작해 발표를 이해하는데 점점 더 쉬워졌고, 더 많은 영어 발표를 들어보는 것이 많은 도움이 될 것이라고 생각했다. AI쪽이 아닌, 물류, 경영, Healthcare 쪽에 대한 최적화, 머신러닝 기법들에 발표를 들으면서 다른 분야의 연구는 어떻게 진행되는지 우리와 어떤 연관성이 있는지 알아볼 수 있는 좋은 시간이였다. 한국뿐만이 아닌 다양한 곳에서의 연구발표를 들으며 더 넓은 시야를 가질 수 있었고, 마지막으로 이러한 자리를 만들어주시고 경험하게 해주신 교수님께 감사드립니다.

댓글목록

등록된 댓글이 없습니다.