위성 위에 탄 AI, 세상을 볼 준비 마치다
최예지 에스아이에이(SIA) 박사 “인공위성과 AI의 만남, 가능성 무궁무진”
“부산에서 운전해보셨을까요? 부산에서 운전은 어렵습니다. 왜 어려울까요? 저희가 영상으로 부산 시내 도로를 추출해봤는데요. 언덕도 많이 있고, 산을 통과하는 도로들도 있습니다. 부산의 도로가 상당히 복잡하다는 것을 바로 알 수 있었죠. 올해 미국 하와이에 산불이 심하게 났습니다. 피해 여부를 확인할 수 있을까요? 가능합니다. 위성 영상으로 분석하니 산불 피해 전과 피해 후 사진을 통해 산불의 피해 여부를 한눈에 파악할 수 있었습니다.”
최예지 에스아이에이(SIA) 박사의 말이다. 최 박사는 지난 9일 일산 킨텍스 중회의실에서 열린 SIA 자체 세미나에서 발표자로 나와 위성 영상 분석의 긍정적 효과를 설명했다. 위성 영상은 한 장만으로도 상당한 양의 정보를 담고 있고, 지구 곳곳을 촬영하니 이 영상을 분석하면 가치 있는 정보를 얻을 수 있다고 밝혔다.
비슷한 목적으로 이용하는 항공 영상과는 차별점이 있다. 헬기나 비행기, 드론을 띄어 촬영하는 항공 영상은 사람이 보기 어려운 지점을 촬영할 수 있는 장점이 있지만, 위성 영상과는 다르다. 항공 영상의 경우 특수한 목적을 갖고 항공기를 띄우지만, 위성 영상은 지구를 돌면서 어느 곳이든 촬영할 수 있어 목적이 없던 곳에 관한 정보도 알 수 있기 때문이다. 최 박사는 “사람이 자주 보지 않거나 관심이 없던 지역에 어떤 현상이 발생하면 과거 찍었던 영상 등을 볼 필요가 있는데, 그 역할을 위성 영상이 할 수 있다”며 “산불이나 재난 등 사람이 쉽게 가지 못했던 지역도 위성 영상을 분석하면 자세한 정보를 알 수 있다”고 설명했다.
문제는 영상의 양이다. 위성영상 데이터는 지금도 쉴새 없이 늘어나고 있다. 2016년부터 폭발적으로 위성 영상이 증가했고, 2027년 이후엔 영상 분석가가 영상을 일일이 분석할 수 없을 정도의 양이 될 것이란 분석이 있다. 봐야 하는 자료가 많아도 도저히 볼 수가 없는 것이다. 그래서 필요한 것이 인공지능(AI)이다. 사람을 보조해 위성 영상을 분석해 인사이트를 주고, 해상도 등을 보완해줄 AI 도구 역할이 중요해졌다. 촬영한 위성 영상에서 변화나 이상 현상이 있는 경우 AI가 이를 탐지해 사람에게 알려줄 수 있으면 기존 영상 분석가 업무가 크게 효율적으로 바뀔 수 있다.
국내 인공위성 기업 쎄트렉아이(Satrec Initiative)의 AI 자회사인 SIA는 일찍이 위성 영상을 분석할 수 있는 AI 도구를 개발해왔다. 위성 영상 내 항공기와 차량, 선박 등 관심 객체를 식별하고 위치를 찾는 ‘객체 검출’ 기술부터 하나의 영상을 여러 개 세그먼트로 나누거나 건물, 도로, 수역, 초목 등 개별 객체를 구분해 원하는 정보를 빠르게 탐지하는 ‘객체 분류’, 저해상도 위성 영상 화질을 높일 수 있는 초해상화 기술 ‘슈퍼 X’(SuperX) 등의 기술을 개발했다. 해당 기술로 여러 성과도 냈다. OCO 위성으로 수집한 전 세계 이산화탄소 농도를 딥러닝으로 분석해 탄소 배출량을 측정하는 기술을 개발했고, 기상 영상을 기반해 강수량을 도출하는 AI 모델을 만들어 태풍, 호우 등 위험 기상을 실시간 모니터링해 재난재해에 대비할 수 있는 기술도 선보였다. 또 변화 탐지 기술로 북한 지형을 분석해 미사일 발사대가 세워졌는지, 잠수함이 이동했는지 등을 감시해 국방 안보에 ‘눈’을 달아주고 있다.
최 박사는 “인공위성은 넓은 규모의 영역을 촬영할 수 있어 국가, 도시 단위 모니터링이 가능한 장점이 있고, AI는 이러한 큰 모니터링 업무에 시간을 단축해주는 효과가 있다”면서 “위성 영상을 올바르게 분석하면 탄소배출, 기상, 건물손상, 안보 등 다양한 정보를 알 수 있으므로 AI 기반 영상분석 기술을 지속 고도화하고 있다”고 밝혔다.