데이터 급증으로 AI 에이전트 활용 필요성 증대
드리프트·블랙박스 등 우려 실존… “인간 감독 필수”

락슈미 라만(Lakshmi Raman) CIA AI혁신담당디렉터는 CIA가 처리하는 정보의 규모를 고려할 때, AI 에이전트 활용 효과는 크지만 드래프트, 블랙박스 등 안전 위협 요소는 주의해야 한다고 경고했다. (왼쪽부터) 스티븐 슈미트(Stephen Schmidt) 아마존 CSO, 락슈미 라만 CIA AI혁신담당디렉터. /김동원 기자

미국 중앙정보국(CIA)이 AI 에이전트 기술 도입에 강한 관심을 보이면서도 안전성 확보를 최우선 과제로 설정하고 있다고 밝혔다. 특히 국가보안이라는 특수한 영역에서 AI가 잘못된 판단을 내릴 경우의 파급효과를 고려해 철저한 인간 감독 체계 구축이 필수라는 입장을 표명했다.

락슈미 라만(Lakshmi Raman) CIA AI혁신담당디렉터는 10일(현지시각) 워싱턴 D.C.에서 열린 ‘아마존웹서비스(AWS) DC 서밋’에서 “AI 에이전트들은 확실히 기업 자동화를 변화시킬 기회를 가지고 있다”며 “복잡한 다단계 워크플로우를 처리하고, 다양한 데이터베이스와 기본 도구들에 걸쳐 작업을 수행하는 데 엄청난 잠재력을 가지고 있다”고 평가했다. 특히 CIA가 처리하는 정보의 규모를 고려할 때, AI 에이전트 활용의 효과가 클 것으로 기대했다.

다만 그는 기술 효율성만큼이나 안전성 확보가 중요하다고 강조했다. 국가 보안을 다루는 만큼 에이전트가 잘못된 결정을 내리거나 행동을 하면 안 되므로 효율만큼이나 안전이 확보돼야 한다고 밝혔다.

이번 세션에는 아마존의 스티븐 슈미트(Stephen Schmidt) 최고보안책임자(CSO)도 참여해 AI 에이전트 활용 방안을 논의했다. 그는 “AI 에이전트가 사람을 대신해 행동을 취하는 소프트웨어로 발전하고 있다”며 “질문과 답변을 넘어 실제 행동을 수행하는 단계로 진화하고 있다”고 설명했다.

◇ CIA, AI로 분석 업무 가속화

주요 정보를 다루는 CIA가 AI 에이전트를 주목하는 핵심 이유는 업무 정확성 향상에 있다.

라만 디렉터는 CIA가 방대한 양의 데이터를 보유하고 있으며, 기하급수적 속도로 유입되는 데이터를 신속하게 분류하고 처리해야 하는 상황이라고 설명했다. 특히 정보를 우선순위에 따라 처리하지 않으면 국가 안보에 직접적인 영향을 줄 수 있다는 점에서 AI 활용의 필요성이 더욱 절실하다고 강조했다.

사이버보안 분야에서의 변화가 가장 두드러진다. 기존에는 네트워크 데이터를 수동으로 분석해 의심스러운 IP 주소나 연결을 차단하는 전통적인 방식에 의존했다. 하지만 AI 기술 발전으로 이 모든 과정을 신속하게 처리할 수 있는 기회가 열렸다는 것이다. 분석가들이 수작업으로 몇 시간씩 걸려 수행하던 위협 탐지와 차단 작업을 AI가 실시간으로 처리할 수 있게 된 것이다.

인증 및 승인 과정의 간소화도 중요한 활용 영역이다. 빠르게 변화하는 기술 환경에서 기존의 복잡한 인증 절차가 업무 속도를 저해하는 요소로 작용하고 있다. CIA는 안전성을 담보하면서도 AI와 머신러닝을 활용해 인증 절차를 효율화하는 방안을 적극 연구하고 있다.

가장 주목할 만한 것은 다중 데이터베이스 통합 분석 영역에서의 AI 에이전트 활용 가능성이다. CIA는 여러 기밀 데이터베이스에서 정보를 수집해 종합 분석하는 복잡한 업무를 수행한다. 이 과정에서 법적·정책적 적절성을 확인하면서 동시에 다양한 분류 수준의 데이터를 통합해 분석해야 하는데, AI 에이전트가 이런 다단계 워크플로우를 자동화할 수 있다는 점에서 큰 기대를 걸고 있다.

이러한 활용 방안들은 단순히 업무 효율성을 높이는 차원을 넘어선다. 국가 안보라는 CIA의 핵심 임무를 더욱 정확하고 신속하게 수행할 수 있는 기반을 마련하는 것이다. 특히 정보의 우선순위 판단과 신속한 대응이 생명인 정보기관의 특성상, AI 에이전트를 통한 업무 자동화는 단순한 기술 도입이 아닌 국가 안보 역량 강화의 핵심 수단으로 여겨지고 있다. 라만 디렉터는 “우리는 방대한 양의 데이터를 보유하고 있고, 기하급수적인 속도로 유입되는 데이터를 신속하게 분류하고 처리하여 통찰력을 도출해야 한다”며 “AI 기술 발전으로 이제 그 모든 것을 빨리 처리할 수 있는 기회가 왔다”고 말했다.

◇ 드리프트·블랙박스 문제 해결 관건

하지만 CIA는 AI 에이전트의 잠재력을 인정하면서도 도입 과정에서 극도로 신중한 접근을 취하고 있다. 이는 국가보안이라는 특수한 영역에서 AI의 한계와 위험성이 치명적 결과로 이어질 수 있기 때문이다.

라만 디렉터가 우려하는 대표 문제는 AI 모델의 ‘드리프트’ 현상이다. 드리프트는 AI 모델이 시간이 지나면서 성능이 저하되거나 예상과 다른 결과를 내는 현상을 뜻한다. 일반 기업에서는 단순한 오류로 끝날 수 있지만, 국가보안 분야에서는 이런 예측 불가능성이 국가적 위기로 이어질 수 있어 특별한 주의가 필요하다는 것이다.

AI의 ‘블랙박스’ 문제도 심각한 우려 사항이다. AI가 어떤 과정을 거쳐 특정 결론에 도달했는지 설명하기 어려운 상황에서, CIA 직원들이 그 결과를 맹목적으로 신뢰할 수는 없다는 판단이다. 라만 디렉터는 “AI 시스템 내부에서 일어나는 의사결정 과정에 대한 설명가능성 확보가 필수적”이라고 강조했다.

이런 우려의 근본에는 AI의 비결정론적 특성이 있다. 스티브 슈미트 아마존 CSO는 “AI 모델에 같은 질문을 100번 해도 매번 같은 답을 얻지는 못한다”며 “이것이 AI 기술의 수학적 구조상 피할 수 없는 특성”이라고 설명했다. 정확성과 일관성을 생명으로 하는 정보기관 입장에서는 이런 불확실성 자체가 큰 부담이라는 것이다.

결국 CIA가 내린 결론은 ‘인간 중심의 AI 활용’이다. 라만 디렉터는 “항상 무엇이 일어나고 있는지 검토할 인간과 핵심 스태프가 있어야 한다”며 “AI가 아무리 발전해도 최종 판단은 반드시 인간이 내려야 한다”는 원칙을 분명히 했다.

홈으로 이동 상단으로 이동