소프트웨어공학 학술대회(KCSE2022) - 오수빈

페이지 정보

profile_image
작성자 관리자
댓글 0건 조회 294회 작성일 22-04-18 16:44

본문

1. 사전 학습 언어 모델들을 활용한 버그 담당자 자동 할당 성능 향상
버그 내용에 따라서 각 담당자에게 할당하기 위해서 버그 내용을 BERT 기반 여러 모델들을(BERT, RoBERTa, DeBERTa, CodedBERT) 이용해 실험한 연구입니다. 이때 실험에서 정확도를 높이는 방법 중 하나가 Dense Layer를 버그 목적에 맞게 fine-tuning 이용한 방법이었습니다. 연구결과를 확인해보면 DeBERTa가 top -k accuracy 성능지표로 비교해봤을 때 제일 좋은 성능을 보였었습니다.
후기: 현재 진행중인 산학연계(졸작)와 비슷하게 텍스트 데이터를 이용해서 분류를 하는 모델을 찾고 있었습니다. 한번 BERT 모델을 이용해봤는데 생각보다 좋은 결과가 나오지 않아서 어떻게 진행해야 할지 고민 중인 상황이었습니다. 이번 학회에서 이 연구를 일반 BERT말고도 다른 BERT 모델을 한번 적용해 보는것도 괜찮을 것 같다는 생각이 들었습니다. 또한 발표 내용 중 적은 양의 데이터를 가지로 방대한 class를 구분하기 위해서는 일반 bert로는 부족하다는 이유로 fine-tuning BERT를 이용했다고 했는데 저희 팀 또한 적은 양의 데이터 때문에 fine-tuning BERT 적용해봤었습니다. 결과는 괜찮은 성능을 보였지만 Dense Layer를 고려하지 않고 진행했기 때문에 좀 더 정확도를 높이는 방법이 될 수 있을 것 같다는 아이디어를 얻게 된 발표였던 것 같습니다.

2. 딥 러닝을 활용한 메소드와 주석 간의 적합성 검증 모델
공유되는 코드에 대한 주석이 적절하게 작성되었는지 판단하는 모델에 대한 내용입니다. 이 연구에서는 LSTM을 이용해 텍스트를 분석을 진행했다. 이 논문에서는 인코딩 방법을 ‘Word2vec’, ‘one-hot인코딩’ 이렇게 2가지 방법으로 진행했다. 결과적으로는 ‘Word2vec’을 이용했을 때 성능이 좋게 나왔다고 합니다. 추가적으로 추후 연구로 좋은 주석과 나쁜 주석의 특징에 대한 코퍼스를 구축해 이 데이터를 바탕으로 모델을 발전시킬 예정이라고 합니다.

댓글목록

등록된 댓글이 없습니다.