(왼쪽부터) 홍성민 GIST 전기전자컴퓨터공학과 교수, 이광운·김인기·정승우·장민서 GIST 연구원./GIST

광주과학기술원(GIST) 연구진이 반도체 설계에서 성능 예측을 기존 대비 최대 100배 빠르게 예측할 수 있는 기술을 개발했다. 

GIST는 홍성민 전기전자컴퓨터공학과 교수 연구팀이 반도체 소자 시뮬레이션의 계산을 기존 대비 최대 100배 빠르게 수행할 수 있는 새로운 알고리즘을 개발했다고 16일 밝혔다. 

반도체 소자 연구개발 과정에서 ‘시뮬레이션’은 필수이다.  반도체 소자의 전기적·물리적 동작을 가상 환경에서 수치적으로 재현하고 분석하는 기술로 전류의 흐름, 전계 분포, 발열 특성 등 소자의 거동을 실제 제작 이전에 예측할 수 있어 성능 최적화와 설계 효율성을 크게 높일 수 있다.

하지만 이러한 시뮬레이션은 반도체 구조가 복잡해지면서 장시간으로 늘어 느려지고 있다. 게이트올어라운드(GAA) 구조나 보완형 트랜지스터(CFET) 등과 같은 복잡한 차세대 소자는 3차원 계산이 필요해, 시뮬레이션에 수 시간에서 수 일이 소요된다. 이로 인해 연구개발 속도가 크게 늦어지는 문제가 있었다.

연구자들은  ‘TCAD 시뮬레이션’이라는 도구를 이용한다. TCAD는 반도체 내부에서 전자와 정공의 이동, 전기장의 분포 등을 물리 법칙에 따라 수치적으로 계산해 소자의 전기적 특성을 정밀하게 예측하는 기술이다.

연구팀은 계산에서 원하는 전압 조건에서 안정적으로 계산하기 위해서는 전압을 조금씩 올려가며 수렴을 유도하는 ‘바이어스 램핑’ 과정이 필수적이었는데, 이 과정을 없애는 방법에 주목했다. 

최근에는 학습된 인공신경망 기반 AI 모델(Artificial Neural Network, ANN)을 이용해 우수한 초기 추정값을 생성하고 불필요한 중간 과정을 줄이는 시도도 있었으나, 새로운 구조에 적용할 경우 추가 데이터와 학습 과정이 필요해 산업 현장에 즉각 활용하기에는 제약이 컸다.

연구팀은 ‘준 1차원(Quasi-1D) 모델링’과 ‘영역별 구조 분석’을 결합한 새로운 접근법을 제안했다. 이 방법은 사전 학습 과정 없이도 반도체 소자 시뮬레이션 수행 시간을 크게 단축할 수 있다.

핵심은 복잡한 반도체 소자를 전류가 흐르는 채널 방향에 따라 1차원으로 단순화해 빠르게 초기 계산값을 추정하고, 소자를 여러 구간으로 나눠 각 구간에 최적화된 물리 모델을 적용하는 것이다. 이를 통해 기존에는 필수적이었던 바이어스 램핑 과정을 생략하면서도, 10~100배 빠른 계산 속도를 구현했다.

연구팀은 게이트올어라운드(GAA) 소자, 보완형 트랜지스터(CFET) 인버터 등 다양한 차세대 소자를 대상으로 새로운 알고리즘을 검증했다.

그 결과, 시뮬레이션 속도는 기존 대비 10~100배 이상 빨라졌으며, 전압 전달 특성(VTC) 등 주요 전기적 특성에서도 기존 TCAD 결과와의 오차가 0.1 볼트(V) 이하로 억제돼 높은 정확성을 입증했다. 또한 소자의 형태(기하학적 구조)나, 계산 과정에서 나누는 작은 구역을 가리키는 메쉬 조건이 달라져도 성능 저하 없이 일관된 결과가 나타났다.

홍성민 GIST 교수는 “이번 연구는 사전 학습된 인공신경망 기반 AI 모델이 없어도 다양한 구조에서 반도체 소자 시뮬레이션 시간을 대폭 단축할 수 있음을 보여 준 성과”라며 “제안한 기법의 효율성과 정확성, 안정성을 바탕으로 향후 차세대 반도체 소자 개발 속도를 앞당기고 연구 효율을 높이는 데 기여할 것”이라고 말했다.

연구 결과는 국제학술지 ‘커뮤니케이션스 엔지니어링(Communications Engineering)’에 지난 25일 온라인으로 게재됐다.

홈으로 이동 상단으로 이동