• 최종편집 2024-02-23(금)
댓글 0
  • 카카오스토리
  • 네이버밴드
  • 페이스북
  • 트위터
  • 구글플러스
기사입력 : 2024.01.02 17:16
  • 프린터
  • 이메일
  • 스크랩
  • 글자크게
  • 글자작게

1026167820_20231229142656_5770834163.jpg


서울대학교 공과대학(학장 홍유석)은 컴퓨터공학부 김현우 박사와 김건희 교수가 미국 시애틀 앨런 인공지능 연구소(Allen Institute for AI, AI2) 및 워싱턴 대학교(University of Washington)의 최예진 교수 등과 함께 진행한 연구가 국제 최우수 자연어처리 학술대회 ‘EMNLP 2023’에서 ‘Outstanding Paper Award’를 수상했다고 밝혔다.

 

국내 대학 연구진이 EMNLP에서 수상을 한 것은 이번이 최초다.

기존 인공지능(AI) 대화 분야는 고질적으로 데이터 부족 문제에 시달려왔다. 일상에서 이뤄지는 대화들은 데이터로 기록되지 않는 경우가 대부분이기 때문이다. 문자 메세지나 이메일 같은 형태로 대화가 기록되더라도 여러 법적 제약들이 존재하기 때문에 이를 연구에 활용하기에는 어려웠다.

이의 대안으로 그동안 크라우드 소싱을 통해 대화 데이터셋을 제작해왔지만 비용도 많이 들고, 만들 수 있는 데이터셋 크기도 작은 문제점이 있다. 그 결과, 기존 대화 관련 연구들은 모두 소수의 작은 데이터셋 위에서 이뤄져 범용성에 큰 제약이 있었다.

수상 논문인 ‘사회 상식 맥락화 기법을 통한 백만 단위의 대화 증류(SODA: Million-scale Dialogue Distillation with Social Commonsense Contextualization)’는 이를 해결하기 위해 거대 언어모델(large language model, LLM)과 기호 기반 상식 그래프(symbolic commonsense knowledge graph)를 함께 사용해 데이터셋을 효율적으로 자동 구축하는 방법론인 CO_3 증류 프레임워크(distillation framework)를 제시했다.

기존에 크라우드 소싱 활용 시에는 대화 하나당 길게는 몇 분이 걸리던 작업을 6초 내외로 단축시킨다. 연구팀은 이를 통해 세계 최초로 150만 규모의 세계 최대 고품질 일상 대화 데이터셋인 ‘SODA’를 무료로 공개했는데, 이는 기존 데이터셋 대비 100배 큰 규모다.

이 밖에도 대화의 자연스러움, 일관성, 구체성 등 품질 또한 기존 크라우드 소싱 기반 대화 데이터셋에 비해 2배 이상 뛰어난 것으로 나타났다. 그 결과, SODA에 학습시킨 챗봇 ‘COSMO’는 파라미터 수가 30억 개로 작은 크기임에도 불구하고 기존 큰 챗봇들(파라미터 수 70억)보다 대화 맥락에 더 적합하고 자연스러운 답변이 가능하다.

이번 연구는 대화 데이터셋 부족 문제를 해결하고, 누구나 간편하게 세계 최대 규모의 고품질 대화 데이터셋을 구축할 수 있는 방법론을 제시했다는 데에 의의가 있다. 이 방법론으로 탄생한 데이터셋 SODA는 다양한 대화 연구에 기반 자료로 쓰일 수 있을 것으로 기대되며, 해당 코드와 SODA 데이터셋, COSMO 모델은 모두 오픈소스로 공개돼 있다.

해당 논문은 김현우 박사가 서울대 박사과정 중 미국 시애틀의 앨런 인공지능 연구소(Allen Institute for AI, AI2)에서 인턴을 수행하며 워싱턴 대학교(University of Washington), 카네기멜론 대학교(Carnegie Mellon University), 서던 캘리포니아 대학교(University of Southern California), 그리고 피츠버그 대학교(University of Pittsburgh)가 함께하는 국제 공동협력 연구를 이끈 결과며, 김현우 박사는 졸업 후 AI2에서 박사후 연구원으로 취업해 후속 연구를 이어가는 중이다.

태그

BEST 뉴스

비밀번호 :
메일보내기닫기
기사제목
서울대 공대 컴퓨터공학부 김현우 박사, 국제 최우수 AI 학회 EMNLP서 국내 대학 연구자 최초 논문상 수상
보내는 분 이메일
받는 분 이메일
User-agent: * Disallow: /nad/ Disallow: /member/ Disallow: /modules/ Disallow: /plugins/