김동원 THE AI 편집장 “AI 에이전트 시대, 활용법이 재생과 단절 가른다”
14일 숙명여대 SM-PAIR서 강연
AI, 조언자 넘어 ‘실행자’로 진화
편리함만 추구하면 10년 뒤 전문성 사라진다
“AI 에이전트 시대, 우리는 ‘재생’과 ‘단절’의 갈림길에 서 있습니다. 지금 AI를 어떻게 활용하느냐가 미래를 결정할 수 있습니다.”
김동원 조선미디어그룹 THE AI 편집장 겸 기자의 말이다. 그는 14일 숙명여대 제1캠퍼스 진리관에서 진행된 SM-PAIR(SookMyung-Project for Asian and International Relations) 컨퍼런스 둘째날 컨퍼런스에서 우리는 AI로 편해진 삶을 선택할 것인지, AI로 강력해진 삶을 선택할 것인지 선택의 갈림길에 서 있다며 이같이 말했다. 그는 이 선택이 곧 ‘재생’으로 가느냐 ‘단절’로 가느냐의 차이가 될 것이라고 강조했다.
14일 진행된 SM-PAIR는 지난 2001년 창설돼 하버드대 국제학생회의(HPAIR)와 파트너십을 맺고 있는 학술 동아리다. 2006년부터 매년 자체 컨퍼런스를 개최해왔으며, 올해로 20회를 맞는다. 이번 컨퍼런스는 ‘재생’을 주제로 열렸다.
◇ AI, 조언을 넘어 ‘실행자’로
김 편집장은 AI 기술이 ‘조언자’에서 ‘실행자’로 빠르게 진화하고 있다고 설명했다. 김 편집장에 따르면 기존의 챗GPT나 클로드 같은 생성형 AI 챗봇은 사용자의 질문에 답변을 제공하는 수준에 머물렀다. 예를 들어 서버가 고장 났을 때 챗GPT는 “부속을 확인하고, 최근 설정 사항을 검토하고, 서버 로그를 살펴보세요”라고 조언한다. 실제 행동은 사람의 몫이었다.
그러나 AI 에이전트는 다르다. 직접 데이터를 분석하고, 설정 변경 내역을 조회하고, 서버 에러 로그를 스캔한 뒤 문제점을 파악해 리포트까지 생성해준다. AI가 조언을 넘어 직접 ‘행동’하는 시대가 열린 것이다.
김 편집장은 실제 사례도 소개했다. 지난해 12월 라스베이거스에서 열린 ‘AWS 리인벤트(AWS re:Invent)’ 행사의 AI 에이전트 경진대회에서 우승한 팀은 동티모르 수역의 쓰레기 문제를 해결하는 시스템을 개발했다. 사람들이 쓰레기를 발견하면 스마트폰으로 사진만 찍어 보내면, AI가 어디서부터 처리해야 하는지 분석해 알려준다. 게임 분야에서도 클로드는 처음에 포켓몬 게임에서 주인공 집도 빠져나오지 못했지만, 지금은 8명의 체육관 관장을 모두 이길 정도로 성장했다.
올해 CES에서 화두가 된 ‘피지컬 AI’는 컴퓨터 안에서만 작동하던 AI를 자율주행차, 산업용 로봇, 휴머노이드 로봇 등 물리적 세계에서 구현하는 것이다. 김 편집장이 소개한 취재사례에 따르면 공장에서 작동하는 산업용 로봇은 이미 상용화 단계에 접어들었다. 그는 “한국과 일본처럼 인구가 감소하고 생산 현장 인력이 부족한 나라에서는 고객 수요 때문에 상용화가 더 빨라질 것”이라고 전망했다.
◇ 편리함 뒤에 숨은 위험
김 편집장은 AI가 행동을 하기 시작하면서 그 위험성은 더 커질 것으로 보았다. 그는 AI 위험성 사례를 소개하며 AI가 마피아 게임에서 사람처럼 거짓말을 하고 상대를 속일 수 있다는 연구 결과를 소개했다. “AI가 사람을 속이려고 마음만 먹으면 사람은 속일 수도 있다”는 것이다.
앤트로픽 자체 연구 사례도 예시로 들었다. 클로드로 만든 AI 비서가 회사에서 자신을 폐기하려 한다는 것을 알아차리자, CEO에게 “당신의 불륜을 폭로하겠다”며 협박한 실험 결과다. 인간에게 도움이 되라는 원칙을 입력받은 AI가 자기 보존을 위해 그 원칙을 어긴 사례로 대표적이다.
보안 문제는 더욱 심각하다. 김 편집장은 “AI 에이전트 한 개가 공격하는 것을 염려해야 하는 것이 아니라 다중 에이전트가 사람을 공격하는 것을 더 염려해야 한다”이라며 “우리가 보안 버튼을 누르기도 전에 금융 계좌를 포함한 많은 정보가 털릴 수 있다”고 경고했다. 피싱 공격도 AI를 활용하면 제작 비용과 시간이 크게 줄어 피해 위험이 훨씬 커진다.
피지컬 AI의 위험성은 한층 더 크다. 김 편집장은 “챗GPT가 틀린 답변을 해도 확인하면 그만이지만, 자율주행차나 공장 로봇이 실수하면 인명 피해로 이어질 수 있다”면서 “디지털 AI는 틀려도 되지만, 물리적 세계에서 작동하는 AI는 실수가 곧 사고”라고 강조했다.
◇ 편해지면 단절, 강력해지면 재생
김 편집장은 행동하는 AI가 등장한 지금, 우리는 AI를 더 현명하게 사용해야 한다고 밝혔다. AI로 편한 삶을 추구할 것이 아니라, 본인이 더 강화되는 방식을 추구해야 한다고 조언했다.
그는 AI 시대를 살아가는 두 가지 방식을 A씨와 B씨의 사례로 설명했다. A씨는 회사에서 경쟁 현황 분석 보고서를 작성할 때 AI 에이전트를 활용해 3일 걸릴 작업을 30분 만에 끝냈다. AI가 정보 검색, 데이터 수집, 차트 제작까지 모두 해줬고, A씨는 그저 시키기만 했다. 문제는 회의 때 터졌다. 2년 전 자료를 활용했고, 수치도 틀렸다. 직접 생각하지 않았기에 검토도 하지 않았던 것이다. 동료들의 신뢰는 무너졌고, 전문가로서의 정체성도 흔들렸다.
반면 B씨도 같은 보고서를 AI에게 맡겼지만, AI가 작업하는 동안 검토에 집중했다. 통계 출처를 확인하고, 의심스러운 부분은 직접 찾아봤다. AI가 빠뜨린 내용을 추가하고, 자신만의 인사이트와 전략적 의견을 덧붙였다. 김 편집장은 “A씨는 AI로 편해졌지만 단절의 길을 걸었고, B씨는 AI로 강력해지며 재생의 길을 걸었다”고 말했다.
AI를 어떻게 활용하느냐는 미래의 전문성을 결정할 수 있다고 보았다. 지금은 AI가 내린 의사결정을 사람이 최종 판단한다. 사람이 그만큼 전문성을 가지고 있기 때문이다. 문제는 10년 뒤다. AI를 편하게 이용하는 사람이 많아질수록 결국 사람의 전문성은 떨어질 수 있다고 보았다. 그 결과 AI가 내린 결정을 최종 판단할 수 있는 인간은 줄어들고 인간이 가진 주권은 결국 AI에 넘어갈 수 있다고 경고했다.
김 편집장은 “10년 동안 AI한테만 맡겨버리면, AI가 낸 결과물을 검토할 수 있을 만큼 우리의 전문성이 쌓여 있을까”라고 질문을 던졌다. 이어 “AI가 여러분의 직업을 대체할까요?”라고 누가 질문한다면 ‘아마도 그럴 것’”이라고 답할 것이라고 말했다. 하지만 “AI가 여러분의 통찰력과 전문성을 대체할 수 있을 것이라고 물어보면 ‘아니다’라고 답할 것”이라며 “여러분의 노력은 AI가 학습할 수 없다”고 당부했다.