-
바이브컴퍼니(대표 김성언, 이하 바이브)는 자체 sLLM(소규모대형언어모델) 바이브GeM의 다음 버전인 생성형 AI 파운데이션 모델 ‘바이브GeM 2’를 오픈소스로 공개했다고 14일 밝혔다.
바이브GeM 2는 총 2.5조 개의 토큰을 사전 학습한 파라미터 14B(140억 개)모델이다. 기존 모델 대비 한 층 업그레이드된 성능을 드러냈다. 기존 모델에서 △코딩 △번역 △멀티턴(Multi-turn) 대화까지 추가로 지원한다. 또 이전보다 적은 메모리를 사용해 더욱 더 빠른 생성이 가능해졌다.
이 모델은 한국어 작업 성능 미세조정(Fine-tuning) 실험 결과에서 GPT 3.5보다 높은 성능을 보이는 것으로 나타났다. 바이브는 AI 응용 시 가장 많이 활용되는 △Open-book QA(오픈북 질의응답) △Closed-book QA(클로즈드북 질의응답) △Doc. Summarization(문서 요약) △Title Generation(제목 생성) 등 4가지 주요 작업(Task)을 기준으로 테스트를 진행한 결과, 메타의 라마2, 구글의 젬마, 업스테이지의 솔라 등 기존에 오픈소스로 공개된 sLLM 중 가장 뛰어난 성능을 보였다. 해당 테스트는 각 베이스 모델에 동일한 데이터를 기반으로 미세조정을 실시한 후, 각 작업 별로 100개의 테스트 샘플에 대해 생성된 답변을 GPT 4를 통해 평가했다.
바이브GeM은 바이브가 20년 이상 축적한 NLP(자연어처리) 기술을 토대로 지난해 공개한 자체 sLLM이다. 이를 기반으로 한 다양한 AI 기반 솔루션 및 서비스들을 출시하고 초거대 AI 공급사업자로도 선정돼 국민권익위원회, 조달청, 관세청, 고용노동부, 충남도청 등 많은 공공기관에 성공적인 PoC(기술검증)를 진행한 바 있다.
또한, 바이브는 최근 과학기술정보통신부로부터 생성형 AI 선도인재양성 사업의 주관 기관으로 선정되며 AI 인재 양성에도 앞장서고 있는 만큼, 이번 바이브GeM 2의 공개를 통해 한국의 생성 AI 경쟁력 강화하고 관련 생태계를 조성하는 데 크게 기여할 전망이다.
김성언 바이브 대표는 “sLLM을 도입하고자 하는 기업 또는 기관들에게 바이브GeM 2는 최고의 선택이 될 것”이라며 “올해 안에 더 고도화된 바이브GeM 2.5와 바이브GeM 3을 시장에 선보이고 지속적으로 서비스와 솔루션에 반영해 나가겠다”고 말했다.
- 김동원 기자 theai@chosun.com