판독관이 직접 분석하던 위성영상 판독 방식을 AI 활용해 데이터 선별에 나서

(사진제공: KAIST)

KAIST가 '합성 개구 레이더(SAR)' 위성영상 정보 활용에 필요한 인공지능(AI) 연구개발에 본격적으로 나서기 위해 대전지역 소프트워에 벤처회사들과 손잡았다.

전기및전자공학부 윤찬현·김문철 교수팀이 참여하는 이번 연구 협력은 인공지능(AI) 기술, 위성 탑재형 딥러닝 가속처리 하드웨어(HW) 기술 등을 적용해 고도화된 위성영상 분석 시스템 개발이 목표이다.

SAR(Synthetix Aperture Rader)는 마이크로파를 사용해 영상 정보를 얻는 레이더 기술이다. 구름·안개·눈 등 기상 환경에 빠른 제약은 물론 주야간 구분 없이 광범위한 지역의 고화질 영상을 수집할 수 있다. 

지금까지 위성영상 판독은 지상에 있는 판독관이 경험과 지식을 바탕으로 자신이 담당자는 주요 지역 위주의 정보를 분석하는 구조였다. 하지만 이같은 구조에는 정보 처리량 등 한계가 있어 판독 대상 외의 위협 지역 및 이동 표적을 광범위하게 전수조사하는 것은 사실상 불가능했다.

연구팀은 위성 온보드 시스템에서 설명 가능 인공지능(Explainable AI·XAI)을 활용해 데이터를 선별하는 연구를 수행할 예정이다. 수백 기가바이트 단위로 수집되는 위성영상 데이터를 정제해 판독관이 분석해야 할 정보량을 압축시켜주는 기술이다.

윤찬현 KAIST 전기및전자공학부 교수는 "뉴 스페이스시대에 수많은 초소형위성들로부터 초대규모 데이터가 수집되는 상황에서 인공지능을 활용한 지능형 데이터 분석 기술은 필수"라며 "저해상도 SAR 영상 분석의 모호성을 해결할 수 있는 품질향상과 신뢰성 높은 AI 핵심기술을 확보하는 성공적인 연구 개발 협력이 되길 바란다"고 말했다.

metarism@metaplanet-dm.com

홈으로 이동 상단으로 이동