증가하는 AI 컴퓨팅 작업량 소화하기 위한 칩 개발 나서
-
삼성전자와 네이버가 ‘인공지능(AI) 반도체’ 개발에 힘을 모은다. 갈수록 커지는 AI 모델과 데이터양을 저전력으로 소화할 수 있는 AI 전용 칩을 개발, AI와 반도체 시장을 선점한다는 계획이다.
네이버는 삼성전자와 AI 반도체 솔루션 개발 협력을 위한 업무협약(MOU)을 체결하고 실무 테스크 포스를 발족했다고 6일 밝혔다. 양사는 서로 가진 AI 기술과 반도체 기술을 결합, AI가 당면한 방대한 전력 소모, 데이터 급증 등의 문제를 해결할 방침이다.
AI는 현재 이미지처리, 음성인식, 자연어처리 등 영역 확대가 빠르게 이뤄지고 있다. ‘초거대 AI’와 같은 높은 용량의 컴퓨터 자원과 반도체가 필요한 모델도 경쟁적으로 출시 중이다. 그 영향으로 2010년까지 2년에 2배씩 증가해왔던 AI 컴퓨팅 작업량은 최근 3~4개월에 2배 이상 증가하는 방향으로 급격한 발전을 이뤘다. AI 개발에 사용되는 데이터양은 1년에 10배가량 증가하는 추세다.
AI 산업 성장은 반도체 업계에 변화를 요구했다. 하나의 칩셋에서 소화할 수 있는 데이터양이 증가한 까닭이다. 중앙처리장치(CPU)나 그래픽처리장치(GPU) 등 AI 연산에 사용되는 칩은 트랜지스터 양이 증가하면서 사이즈가 커졌다. 칩 크기 증가는 성능 저하 문제를 일으켰다. 전체 칩에 전력이 고르게 공급되지 못해 성능 저하가 발생하는 ‘다크 실리콘’ 현상이 발생했기 때문이다.
삼성전자는 이 문제를 메모리 기반 기술로 해결할 수 있는 기술을 개발해왔다. ‘고대역폭 메모리-프로세스 인 메모리(HBM-PIM)’이 대표 기술이다. HBM-PIM은 초고속 고대역폭메모리와 AI 프로세서를 하나로 합쳐 성능은 높이고 전력 소비량을 낮춘 제품이다. 여기서 PIM은 메모리 내부에 연산 작업에 필요한 AI 프로세서 기능을 더한 지능형 반도체를 뜻한다. 메모리와 CPU, GPU가 서로 데이터를 주고받는 기존 폰노이만 방식과 달리, 메모리에서 자체적으로 데이터 연산을 할 수 있다. 메모리와 CPU·GPU 간 데이터 이동이 적어 연산처리 속도가 빠르다. 전력 소모량도 최대 30배 아낄 수 있다.
-
네이버는 이러한 기술력을 가진 삼성전자와 초거대 AI 등 실제 AI 모델에 사용할 수 있는 칩 개발에 협력한다. 한국어 기반 초거대 AI ‘하이퍼클로바’ 서비스를 실제 운영하는 만큼, 개발 초기 단계부터 실제 필요에 부합하는 솔루션을 만들고 시스템 레벨에서의 최적화를 도모한다.
현재 네이버는 자체 구축한 슈퍼컴퓨터 인프라에 기반한 초거대 AI 하이퍼클로바를 하루 3600만 명 이상이 사용하는 네이버 서비스에 적용, 운영하고 있다. 칩을 효율적으로 사용할 수 있는 소프트웨어 기술도 갖췄다. 같은 GPU를 사용하더라도 기존 모델 대비 2~3배 수준의 빠른 성능을 구현할 수 있는 경량화 알고리즘 등 AI 칩 개발에 필요한 소프트웨어 역량을 보유하고 있다.
정석근 네이버 클로바 CIC 대표는 “네이버가 하이퍼클로바를 서비스하면서 확보한 지식과 노하우를 삼성전자의 첨단 반도체 제조 기술과 결합하면, 최신의 AI 기술이 당면하고 있는 문제를 해결할 수 있는 기존에 없던 새로운 솔루션을 만들어낼 수 있을 것”이라고 말했다.
한진만 삼성전자 메모리사업부 전략마케팅실장 부사장은 “네이버와 협력해 초거대 AI 시스템에서 메모리 병목현상을 해결할 수 있는 최적의 반도체 솔루션을 개발할 것”이라며 “AI 서비스 기업과 사용자의 니즈를 반영한 반도체 솔루션을 통해 PIM 등 시장을 선도하는 차세대 메모리 라인업을 확대해 나가겠다”고 밝혔다.
- 김동원 기자 theai@chosun.com