뉴럴 아트 가속기, 기존 STM32H7 대비 연산 성능 600배 도약
네트워크 의존·지연·보안 취약... 엣지로 클라우드 AI 한계 돌파
500개 이상 부품 포트폴리오로 피지컬 AI 선점 계획 밝혀

마테오 마라비타 ST 아태지역 AI 역량센터장/염도영 기자

인프라 비용과 에너지 소비가 AI 업계 과제로 부상했다. 이에 반도체 업계는 새로운 해법을 내놓고 있다. 클라우드로 데이터를 보내지 않고, 디바이스 자체에서 AI를 추론하는 ‘엣지 AI’다. ST마이크로일렉트로닉스(이하 ST)는 9년간의 자체 NPU 연구 끝에 ‘뉴럴 아트 가속기’를 탑재한 ‘STM32N6’를 출시하며 경쟁에 뛰어들었다. 수 마이크로와트에서 수백 밀리와트 범위에서 AI 모델을 구동한다는 목표 아래, 마테오 마라비타 ST 아태지역 AI 역량센터장은 지속가능한 AI 인프라의 대안을 설계하고 있다고 밝혔다.



뉴럴 아트 가속기, MCU 경계 허물다

STM32N6에 내장된 뉴럴 아트 가속기는 ST가 9년간의 연구 끝에 자체 개발한 NPU다. 컨볼루션 연산과 MAC을 포함한 다양한 하드웨어 연산 가속기와 두 개의 64비트 AXI 메모리 버스를 갖춰 600 GOPS의 처리량을 제공한다. 이는 NPU가 없는 기존 최고 사양 STM32H7 대비 600배에 달하는 수치다. 마테오 마라비타 센터장은 핵심 차별화 포인트로 전력 효율을 꼽았다. STM32N6는 3 TOPS/W의 전력 효율을 제공해 최대 200mW 소비 전력에서 NPU를 최대 속도로 구동한다. 1GHz로 클럭킹된 NPU와 800MHz Cortex-M55 CPU, MIPI CSI-2 인터페이스를 갖춘 전용 컴퓨터 비전 파이프라인이 결합해 실시간 신경망 추론을 가능하게 한다.

Arm 헬리움 기반의 벡터 연산 지원도 고성능 추론을 저전력으로 구현하는 데 기여한다. 마테오 마라비타 센터장은 “STM32N6는 GPU나 MPU 환경에서 넘어오는 고객에 가성비 면에서 이점을 제공한다”고 밝혔다. 임베디드 MCU 특유의 소형화·저전력·낮은 시스템 복잡성을 유지하면서도 MPU 수준의 AI 성능에 근접했다는 평가다. 이는 기존에 가속화한 마이크로프로세서를 요구하던 머신러닝 애플리케이션을 이제 MCU에서도 구현한다는 의미다.

마테오 마라비타 센터장은 클라우드 AI의 구조적 한계를 짚었다. 네트워크 의존성, 전체 시스템 지연시간, 대용량 데이터 전송 필요성, 전체 솔루션 비용 증가, 개인정보 보안 취약성이다. 이 균열이 엣지 AI로의 전환을 가속하는 구조적 동인이라는 분석이다. 이에 ST는 두 가지 전략을 제시한다. AI 알고리즘 처리를 클라우드에서 엣지로 이동시키는 것과 AI 가속기가 내장된 디바이스와 소프트웨어 툴을 결합해 선택하는 것이다. 그는 로컬 처리로의 전환이 시스템 전력 소비 절감, 응답성 향상, 보안 강화, 전체 솔루션 비용 절감으로 이어진다고 말했다.

경쟁 구도에서 ST의 진입 장벽은 하드웨어와 소프트웨어 통합 생태계에 있다. ST는 뉴럴 아트 가속기와 함께 무료 소프트웨어 툴, 유스케이스, 문서를 제공하는 ‘ST 엣지 AI 수트’를 함께 공개했으며, 주요 AI 프레임워크와의 광범위한 호환성을 지원한다. 여기에 STM32N6 엔비디아 타오 툴킷, AWS STM32 ML 엣지 가속기와의 연동 등이 더해지면서 AI 개발 플랫폼 역량을 강화했다.



아태 전역을 잇는 기술 지원 체계

ST 아태지역 AI 역량센터는 단순한 기술 연구 조직이 아니다. 마테오 마라비타 센터장에 따르면, 센터는 컨슈머·산업용·자동차 등 다양한 산업군의 고객과 함께 AI 모델 설계부터 기술 컨설팅까지 전방위 지원을 제공한다. 고객사의 임베디드 AI 프로젝트가 PoC 단계부터 양산까지 이어지도록 돕는 역할을 맡고 있다. 시장 반응은 수치로도 확인된다. 포춘 비즈니스 인사이트에 따르면, 글로벌 엣지 AI 시장은 2025년 기준 약 358억 달러 규모로 평가되며, 2034년까지 연평균 33.3%의 성장률로 확대될 것으로 전망된다. 아태지역은 이 가운데 가장 높은 성장률이 예상되는 지역으로, ST의 현지 AI 역량센터 운영 전략과 맞닿아 있다.

ST는 적용 환경에 따라 스케일이 달라지는 포트폴리오를 갖추고 있다. 수 마이크로와트 수준에서 구동되는 MEMS 센서 내 AI부터 MCU에 탑재된 고효율 AI 가속기가 수백 밀리와트 범위에서 처리하는 복잡한 추론 작업까지 포괄한다. 한 예로, ST는 임베디드 AI 플랫폼 STM32를 기반으로 MLPerf Tiny 벤치마크에 제출된 전체 프로젝트의 73%를 차지하는 성과를 거뒀다. 마테오 마라비타 센터장은 ST가 에너지·모터 제어, 오토모티브 분야에서 AI 적용을 위한 신규 프로젝트를 진행 중이라고 밝혔다.

ST 아태지역 AI 역량센터의 비즈니스 모델은 단발성 기술 지원이 아닌, 고객의 개발 사이클 전체를 동행하는 구조다. 마테오 마라비타 센터장은 “주요 고객의 아이디어를 PoC 단계부터 양산까지 이어지도록 지원하는 데 주력하고 있다”고 밝혔다. 반도체 공급사가 칩을 납품하는 데 그치지 않고, AI 모델 설계와 기술 컨설팅을 패키지로 제공함으로써 고객의 전환 비용을 높이는 전략이다. 지역별 공략 방향도 뚜렷하다. 아태지역 AI 역량센터는 홍콩을 거점으로 스마트폰 컴피턴스 센터와 AI 컴피턴스 센터를 병행 운영하며, 컨슈머·산업·자동차 전 영역에 걸쳐 고객 풀을 확보하고 있다. 현재 에너지·모터 제어·오토모티브 분야에서 AI 적용 신규 프로젝트가 진행 중이며, 향후에도 적용 영역을 지속 확장할 계획이다.

로드맵 측면에서는 NPU 탑재 MCU의 성능 범위 확장이 과제다. 마테오 마라비타 센터장은 “더 넓은 전력 범위를 커버하도록 NPU 탑재 MCU 로드맵을 확장하고 있다”고 밝혔다. STM32N6가 플래그십으로 엣지 AI MCU 시대를 열었다면, 이후 라인업은 더 넓은 스펙트럼의 애플리케이션을 흡수하는 방향으로 전개될 전망이다. ST가 지향하는 미래는 ‘클라우드 커넥티드 인텔리전트 엣지’다. 수십억 개의 디바이스가 더 자율적으로 작동하면서 동시에 클라우드와 연결돼 데이터의 생성과 로컬 처리가 함께 늘어나는 세계를 목표로 한다. 마테오 마라비타 센터장은 이 비전을 기술 슬로건이 아니라 실제 제품 로드맵의 좌표로 삼고 있다.

엣지 AI의 다음 전장은 피지컬 AI다. 마테오 마라비타 센터장은 ST의 MCU·센서·드라이버·모듈 등 기존 포트폴리오가 이미 피지컬 AI 영역에 적용되며, 그 중심에 휴머노이드 로봇이 있다고 강조했다. ST는 현재 500개 이상의 로봇 구성요소로 이뤄진 로보틱스 솔루션 포트폴리오를 갖추고 휴머노이드 로봇 개발자를 위한 전략적 파트너로 나서고 있다. 이 전략에는 빅테크와의 연대도 포함된다.

이에 ST는 엔비디아와 협력해 센서·MCU·모터 컨트롤 솔루션을 엔비디아 로보틱스 에코시스템에 통합하기로 결정했다. 개발자가 휴머노이드 로봇을 포함한 피지컬 AI 시스템을 개선된 효율성과 확장성으로 설계·훈련·배포하도록 지원하기로 했다. 이는 칩 공급사가 아니라 피지컬 AI 생태계의 인프라 파트너로 자리매김하겠다는 포석이다. ST가 그리는 미래는 수십억 개의 디바이스가 클라우드에 의존하지 않고 스스로 판단하는 세계다. 마테오 마라비타 센터장은 수요의 상당 부분이 산업, 자동차, 로보틱스 영역에서 발생할 것으로 내다봤다.

홈으로 이동 상단으로 이동