테크

GIST, 국제 AI 음향 인식 대회서 오디오 소스 분리 부문 1위

기사입력 2024.07.09 17:00
전기전자컴퓨터공학부 김홍국 교수 연구팀
이벤트 탐지 부문에서도 3위
  • 김홍국 전기전자컴퓨터공학부 교수 연구팀. (왼쪽부터) 김홍국 전기전자컴퓨터공학부 교수, 이도현 학생, 송윤아 학생. /GIST
    ▲ 김홍국 전기전자컴퓨터공학부 교수 연구팀. (왼쪽부터) 김홍국 전기전자컴퓨터공학부 교수, 이도현 학생, 송윤아 학생. /GIST

    국내 연구진이 국제 음향 인식 대회에서 두각을 보였다. 

    GIST(광주과학기술원)은 오디오 지능을 연구하는 김홍국 전기전자컴퓨터공학부 교수 연구팀이 ‘국제 음향 장면 및 이벤트 탐지분류 2024 챌린지(IEEE DCASE)'에서 ‘언어질의 기반 오디오 소스 분리(Language-Queried Audio Source Separation) 부문’ 1위와 ‘실내 음향 이벤트 탐지 부문’ 3위를 수상했다고 9일 밝혔다.

    이 대회는 국제전기전자공학회(IEEE) 산하 신호처리소사이어티(AASP)가 2013년부터 개최하는 세계적인 대회로, 인공지능(AI)을 이용해 소리를 듣고 상황을 판단하는 음향 인식 기술을 겨룬다.

    올해는 4월 1일부터 6월 15일까지 약 3개월간 108개의 유수 기관 및 대학이 참가해 음향 장면 인식, 기계 이상 진단 확인 등 10개 분야에서 경쟁했다.

    오디오지능연구실(AiTeR) 학생들로 구성된 ‘GIST-AunionAI’ 팀(석박통합과정 송윤아·석박통합과정 이도현 학생, 김홍국 교수)은 ‘DCASE 챌린지 2024’의 ‘언어질의 기반 오디오 소스 분리 과제 (Language-Queried Audio Source Separation, Task 9)’ 부문에서 1위를 차지했다. 김홍국 교수의 창업 회사인 오니온에이아이(AunionAI)의 지원을 받았다.

    또 한화비전 연구원과 함께 구성된 GIST-HanwhaVision 팀(석사과정 손상원 학생, 석박통합과정 박종연 학생, 김홍국 교수, HanwhaVision: 노승인 상무, 임정은 수석연구원, Sulaiman Vesal)은 음향 이벤트 탐지 과제(DCASE Task 4)’에서 3위를 차지했다.

    ‘언어질의 기반 오디오 소스 분리(LASS) 기술’은 사용자가 입력한 텍스트에 따라 이에 맞는 오디오 신호를 분리하는 기술이다. 텍스트 질의를 통해 오디오 소스를 분리 생성함으로 언어와 오디오를 연결하는 생성형 AI 모델 개발의 기초를 제공한다. 자동 오디오 편집, 멀티미디어 콘텐츠 검색, 증강 청취 등 다양한 응용 분야에서 활용될 수 있다.

    이번 경진대회에서 ‘GIST-AunionAI’ 팀은 다양한 오디오 지능을 표현할 수 있는 AI 기술들을 접목해 고성능 언어질의 기반 오디오 소스 분리 기술을 개발했다. △LLM(거대언어모델) 기반 프롬프트 기술 및 데이터 증강 기술 △사전 학습 훈련 모델*과 기존 모델의 추론 결과 융합 기술 △AI 능력 향상을 위한 앙상블 기술을 통해 AI 모델을 개선했다.

    ‘실내외 음향 이벤트 탐지 기술’은 실내외 환경에서 발생할 수 있는 진공청소기 소리, 설거지하는 소리, 차량 소리 등 27종류의 다양한 소리를 AI를 통해 탐지 및 구별하는 기술이다. 카메라를 통해 처리하는 데 제한이 있는 상황에서 소리만으로 음향 이벤트를 탐지할 수 있다는 강점이 있다. 실내외 상황 감시, 차량 모니터링 등 다양한 애플리케이션에 활용될 수 있다.

    GIST-HanwhaVision 팀은 다양한 오디오 지능을 표현할 수 있는 AI 기술들을 접목해 고성능 실내외 음향 이벤트 탐지 기술을 개발했다. △보조 분류기 기반 모델 학습 기술 △다양한 입력 특성 추출 기술 등 AI 모델을 개선했다.

    김홍국 GIST 교수는 “GIST 연구실과 오니온에이아이, 한화비전이 협업해얻은 성과로 개발된 AI 모델이 연구실에 머물지 않고 사업화로 나아갈 수 있다는 가능성에 그 의의가 매우 크다”며 “LLM 기반 오디오 생성 및 인식 AI 모델을 지속적으로 개선해 나갈 것”이라고 말했다.

최신뉴스