[CES 2026] 래블업, SLM 구동하는 ‘Backend.AI:GO’ 공개
Backend.AI 플랫폼과 연동해 AI PC까지 확장되는 관리 체계 구현
AI PC 확산 국면에서 엔터프라이즈 AI 인프라 전략 변화 감지
클라우드형 AI 서비스 ‘Backend.AI:DOL’ 정식 출시로 주목
래블업이 2026년 1월 6일부터 9일까지 미국 라스베이거스 컨벤션센터에서 열리는 CES 2026에 4년 연속 참가하며, 개인용 컴퓨터에서 소형언어모델(SLM)을 직접 구동하는 데스크톱 애플리케이션 ‘Backend.AI:GO’를 정식 공개한다.
Backend.AI:GO는 클라우드 서버에 연결하지 않고도 로컬 환경에서 AI 추론을 수행하도록 설계된 온디바이스 AI 솔루션이다. 사용자는 모델을 한 번 내려받으면 인터넷 연결 없이도 개인 PC에서 문서 분석, 이미지 이해와 생성, 코드 검토 등 다양한 생성형 AI 작업을 수행할 수 있다.
Backend.AI:GO는 입력 데이터가 외부 서버로 전송되지 않는 구조인 만큼, 보안과 데이터 주권을 중시하는 기업 환경을 주요 적용 대상으로 삼았다. 특히 사용자가 하이퍼파라미터와 자원 할당을 직접 조정해 모델의 응답 특성과 자원 사용량을 제어할 수 있다는 특징은 단순한 개인용 AI 도구를 넘어 엔터프라이즈 활용을 염두에 둔 설계라는 점을 보여준다.
Backend.AI:GO의 핵심은 래블업이 그동안 구축해 온 AI 인프라 운영 플랫폼 ‘Backend.AI’와의 연동 구조에 있다. 여러 대의 AI PC에서 구동되는 Backend.AI:GO를 하나의 Backend.AI 환경으로 연결하면, 기업은 기존 GPU 클러스터를 관리하던 방식 그대로 개인 단말까지 관리 범위를 확장할 수 있다.
이를 통해 모델 버전 관리, 사용량 모니터링, 자원 할당 정책을 중앙 콘솔에서 일괄적으로 운영할 수 있으며, 이미 구축된 Backend.AI 환경이나 외부 클라우드 AI 서비스와의 연계도 가능하다. 결과적으로 초거대 모델이 구동되는 클라우드 자원과 개인 PC의 연산 자원을 하나의 인프라 풀로 통합하는 구조다.
래블업은 이번 CES에서 클라우드형 AI 서비스 ‘Backend.AI:DOL’도 정식 출시한다. 웹 브라우저 기반으로 다양한 공개형 모델을 불러와 활용할 수 있는 이 제품은 Backend.AI:GO와 역할을 분담해 온디바이스와 클라우드를 동시에 아우르는 구조를 완성한다. 래블업은 이를 통해 AI PC부터 하이퍼스케일 GPU 클러스터까지 일관된 운영 경험을 제공하는 풀스택 AI 인프라 체계를 구축했다는 설명이다.
신정규 래블업 대표는 “온디바이스 환경에서 AI 모델을 직접 구동하려는 기업 수요가 빠르게 늘고 있다”며, “Backend.AI:GO와 DOL을 통해 단말 규모와 인프라 환경에 관계없이 일관된 AI 운영 경험을 제공하겠다”고 밝혔다. 이번 전시를 통해 래블업은 클라우드 중심 AI 인프라에서 온디바이스와 분산 환경을 포괄하는 새로운 운영 기준을 제시하겠다는 전략을 분명히 했다. 래블업 부스는 CES LVCC 노스홀 9529번에서 만나볼 수 있다.