네이버, 엔비디아 ‘B200’ 4000장 클러스터 구축 완료
네이버가 엔비디아 차세대 그래픽처리장치(GPU) ‘B200(블랙웰)’ 4000장 규모를 기반으로 국내 최대 수준의 AI 컴퓨팅 클러스터 구축을 완료했다고 8일 밝혔다.
네이버는 이번 인프라로 글로벌 수준의 컴퓨팅 파워를 확보해 독자 파운데이션 모델 고도화와 서비스·산업 전반 적용을 위한 기반을 마련했다고 설명했다.
팀네이버는 대규모 GPU 자원을 하나로 연결해 성능을 끌어내는 ‘클러스터링’ 분야에서 기술력을 갖췄다고 강조했다. 2019년 엔비디아 슈퍼컴퓨팅 인프라 ‘슈퍼팟(SuperPod)’을 빠르게 상용화한 데 이어, 초고성능 GPU 클러스터를 직접 설계·운영하며 실증 경험을 축적해왔다는 설명이다.
이번 ‘B200 4K 클러스터’에는 냉각·전력·네트워크 최적화 기술을 집약했고, 회사는 글로벌 Top500 상위권 슈퍼컴퓨터와 비교 가능한 수준의 컴퓨팅 규모라고 평가했다.
인프라 성능은 모델 개발 속도에 직결된다는 게 회사 측 설명이다. 팀네이버는 내부 시뮬레이션에서 720억 개(72B) 파라미터 규모 모델을 학습할 경우, 기존 A100 기반 주력 인프라(2048장)로 약 18개월 걸리던 학습 기간이 ‘B200 4K 클러스터’에서는 약 1.5개월 수준으로 줄어드는 효과가 확인됐다고 밝혔다. 다만 해당 수치는 내부 시뮬레이션 결과로, 실제 과제·설정에 따라 달라질 수 있다고 했다.
회사 측은 학습 효율이 12배 이상 향상되면 더 많은 실험과 반복 학습이 가능해져 모델 완성도를 높이고, 기술 환경 변화에도 기민하게 대응할 수 있다고 설명했다.
팀네이버는 이 인프라를 바탕으로 텍스트를 넘어 이미지·비디오·음성을 동시에 처리하는 옴니(Omni) 모델 학습을 대규모로 확장하고, 성능을 글로벌 수준으로 끌어올린 뒤 서비스와 산업 현장에 단계적으로 적용한다는 구상도 밝혔다.
최수연 네이버 대표는 “이번 AI 인프라 구축은 단순한 기술 투자를 넘어, 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보했다는 데 의미가 있다”며 “빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 유연하게 적용해 실질적 가치를 만들어 나갈 것”이라고 말했다.