-
2026년, 생성형 AI 기술은 텍스트를 넘어 이미지와 비디오 영역으로 빠르게 확장되고 있다. 다만 ‘소라(Sora)’와 같은 고성능 모델을 학습시키는 데에는 여전히 막대한 비용과 시간이 소요된다는 한계가 존재한다. 이러한 상황에서 AI 모델 학습의 효율성을 개선하는 연구 성과가 국내 연구진에 의해 제시됐다.
KAIST 박사취득을 앞둔 유시현 연구원은 지난 2025년 인공지능 분야 국제 학회인 ICLR에서 구두 발표(Oral Presentation)로 ‘REPA(Representation Alignment)’ 기술을 발표했다. 해당 연구는 이후 생성형 AI 학습 효율과 관련한 연구에서 자주 인용되며, 현재까지 약 300회 이상 인용된 것으로 집계되고 있다.
유시현 연구원이 제안한 REPA 기술은 차세대 생성 AI의 주요 아키텍처로 활용되고 있는 ‘확산 트랜스포머(Diffusion Transformer, DiT)’의 학습 과정을 개선하는 데 초점을 맞췄다. 기존 모델들은 이미지 생성 성능은 높지만, 학습 과정에서 데이터의 의미 정보를 효과적으로 활용하지 못해 학습 효율이 떨어진다는 지적을 받아왔다.
유 연구원은 이러한 한계의 원인으로 생성 모델이 픽셀 단위의 복원에 집중하면서 이미지가 담고 있는 의미적 정보와의 간극, 이른바 ‘의미적 격차(Semantic Gap)’가 발생한다고 설명한다. 이를 보완하기 위해 외부의 이미지 이해 모델을 참고 모델로 활용해, 생성 모델이 의미 정보를 보다 빠르게 학습하도록 유도하는 정렬(Alignment) 기법을 제안했다.
연구 결과, REPA를 적용한 모델은 기존 방식 대비 학습 속도가 크게 개선됐으며, 동일한 성능 목표에 더 적은 학습 단계로 도달한 것으로 나타났다. 이미지 품질을 평가하는 FID 지표에서도 1.42를 기록해, 학습 효율과 성능을 동시에 확보할 수 있음을 보였다. 해당 결과는 대규모 컴퓨팅 자원이 필요한 생성형 AI 연구에서 비용 효율성 측면의 가능성을 제시한 사례로 평가된다.
유 연구원은 KAIST 재학 시절부터 국내외 AI 연구진과 협업하며 연구를 이어왔다. 박사과정 중에는 뉴욕대학교(NYU) 방문 연구원으로 연구를 수행하며, 생성형 AI 분야 연구자와 공동 연구를 진행한 경험도 있다. 이러한 과정에서 생성형 AI 학습 구조와 효율성 문제를 중심으로 연구 주제를 발전시켜 왔다.
유시현 연구원은 “연구실 모니터 속의 수식이 실제 세상의 문제를 해결하고, 효율적인 AI 개발을 돕는 도구가 될 때 가장 큰 보람을 느낀다”고 말한다. 지난 1년간 REPA 기술이 글로벌 AI 생태계에 미친 파급력에 안주하지 않고, 진일보된 AI 기술을 연구하고 또다른 성과물을 도출할 포부를 밝혔다.
- 송정현 기자 hyunee@chosun.com