인더스트리

엔비디아·구글, AI 개발 스타트업 지원사격

기사입력 2024.04.12 18:03
생성형 AI 서비스와 애플리케이션의 빠른 구축을 위한 협력
전 세계 스타트업 AI 개발 비용 절감과 장벽 완화
  • 엔비디아와 구글 클라우드./ 엔비디아
    ▲ 엔비디아와 구글 클라우드./ 엔비디아

    인공지능(AI) 서비스와 앱 개발을 위해 엔비디아와 구글이 뭉쳤다.

    GPU의 강자 엔비디아의 스타트업 지원 프로그램과 구글 클라우드의 스타트업 지원 프로그램을 통합한 것이다.

    지난 9일(현지시간) 미국 라스베이거스에서 개최된 ‘구글 클라우드 넥스트(Google Cloud Next) 2024’에서 스타트업을 위한 엔비디아 인셉션(NVIDIA Inception) 프로그램과 구글 포 스타트업 클라우드(Google for Startups Cloud) 프로그램을 통합한다는 협업 소식이 발표됐다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 스타트업을 지원한다.

    엔비디아와 구글 클라우드가 이 같은 사실을 발표하면서 수 천개의 스타트 업들이 생성형 AI 서비스를 빠르게 구축할 수 있을 것으로 기대했다. AI 개발 비용 절감, 개발 장벽 완화, 그리고 GPU 공급사와 클라우드 서비스 등 회사간 시너지를 기대하는 것이다.

    우선 1만8000개 정도 되는 엔비디아 인셉션 글로벌 프로그램의 회원은, AI에 중점을 둔 스타트업의 경우, 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다.

    아울러 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에도 참여할 수 있다.

    두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록, 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.

    ◇ GPU+클라우드 생태계 주도 의지 

    이번 프로그램은 스타트업들이 생성형AI 애플리케이션을 개발하는데 드는 비용을 줄이고 장벽을 완화하기 위한 조치라고 했다.

    하지만 인터넷을 통해 확장성이 뛰어난 컴퓨팅 리소스를 서비스로 제송하는 ‘서비스형 인프라(IaaS)’ 시장 확대를 겨냥한 측면도 있다. 구글클라우드는 엔비디아의 GPU 시리즈들을 서비스형인프라(IaSS)로 제공하고 있기 때문이다. 양사의 거대언어모델(LLM) 관련 협력은 지속돼 왔다.

    구글의 오픈소스 LLM 모델인 ‘젬마(Gemma)’는 엔비디아 GPU로 실행되고 있다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하다. 구글 클라우드를 사용하면 플랫폼 전반에 엔비디아 ‘네모(NeMo)’ 프레임워크를 배포하기 쉬워진다. ‘네모’는 슈퍼컴퓨팅 규모를 가진 대형 생체분자 언어 모델의 훈련과 배포를 위한 프레임워크다.

    이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 맞춤형 청사진을 통해 신속히 구축할 수 있다. 엔비디아 AI 기업용 제품의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다.

    ◇ 신제품 출시도 협력...엔비디아 블랙월 기반 GPU

    구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 다음 달 A3 메가(Mega)의 정식 출시를 발표했다. 엔비디아의 차세대 AI반도체 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 그래픽처리장치(GPU)는 내년 초에 두 가지 버전(HGX B200·GB200 NVL72)로 구글 클라우드에 출시될 예정이다.

    HGX B200은 가장 까다로운 AI, 데이터 분석, 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐다. GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다.

    엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. GB200 NVL72는 멀티 노드 랙 스케일 시스템으로, 구글 클라우드의 4세대 고급 액체 냉각 시스템과 결합될 예정이다.

    아울러 엔비디아는 지난달 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.

최신뉴스