-
업스테이지가 한국 대형언어모델(LLM) 견인 역할을 자청했다. 한국 LLM 강화를 위한 ‘1T클럽’을 발족한다고 14일 밝혔다. 1T클럽은 ’1 Trillion 토큰 클럽‘을 줄인 것으로 텍스트, 책, 기사, 보고서, 논문 등 다양한 형태의 1억 단어 이상의 한국어 데이터를 기여하는 파트너사들로 구성된다.
업스테이지는 1T클럽을 통해 한국어 데이터를 확보하고 공유함으로써, 한국문화 정서를 담아낼 수 있는 고품질의 LLM을 개발하고 이를 통해 국내 생성AI 다양한 분야의 애플리케이션에 활용해 AI 발전에 기여할 수 있을 것으로 기대하고 있다.
한국어 데이터는 대한민국 LLM 발전에 필수적인 자원이지만, 현재 상당히 부족하고 저작권의 문제에도 직면해 있다. 외국어 중심으로 학습된 빅테크의 LLM들은 한국어 실력은 물론 정서나 지역적 정보에 취약해 국내 기업들이 활용할 프라이빗 LLM 발전에 걸림돌이 되고 있다. 45조개 토큰으로 학습하는 영어와 달리 한국어 데이터 학습량의 경우 GPT-3 기준으로 약 1억개로 비중은 0.01697%, 전체 언어 중 28위에 불과하다.
업스테이지는 1T클럽을 통해 한국의 AI 능력을 더욱 향상하고, 글로벌 AI 산업에서 한국이 선두 주자의 위치를 확립하기 위해 최선을 다할 계획이다. 특히 크롤링을 통한 AI 학습으로 인해 저작권 이슈 등 부작용이 발생하는 문제 해결은 물론, 데이터 제공자와 모델 제작자 모두가 혜택을 볼 수 있도록 운영될 계획이다.
업스테이지는 1T클럽에 참여하는 파트너사에게 데이터 제공량에 비례해 API 사용료를 할인해 주고 LLM의 API 사업으로 창출될 수익을 공유하는 등 두 가지 방식으로 혜택을 제공할 계획이다.
우선 파트너사는 기여 토큰수에 비례해 업스테이지가 자체 제작하는 LLM의 API를 할인된 가격에 사용할 수 있다. 또 수익을 공유하는 ‘Profit Share 방식’을 통해 업스테이지가 LLM의 API 사업으로 수익을 창출할 경우, 그중 일부를 파트너사들과 공유하게 된다.
업스테이지는 제공된 데이터의 보안과 개인정보보호에도 만전을 기할 방침이다. 업스테이지는 파트너사들이 제공하는 데이터를 모델의 한글 프리트레이닝(pre-training) 학습 용도로만 사용, 일반적인 지식과 글 요약, 정리 등의 능력만 가지게 되고, 원문 추출은 불가능하도록 운용할 계획이다. 또한 기타 용도로 사용하거나 외부로 유출하지 않는 것은 물론 자체적인 탈옥방지(Jailbreak Check) 기술을 통해 원문 유출을 원천적으로 차단할 계획이다.
김성훈 업스테이지 대표는 “LLM은 오늘날 생성형 AI의 핵심 기술로, 국내 다양한 업계의 기업들도 고성능의 프라이빗 LLM을 자유롭게 활용할 수 있도록 생태계를 만드는 것이 중요하다”며 “우리는 1T클럽을 통해 데이터 제공자들의 권익을 지키고 이를 바탕으로 한국문화 정서를 담아낼 수 있는 LLM을 개발, 국내 모든 기업이 AI발전의 수혜를 볼 수 있도록 최선을 다 할 것”이라고 말했다.
- 김동원 기자 theai@chosun.com