AI 신뢰성 기차 ‘TRAIN’, 한국서 출발
신뢰할 수 있는 인공지능 국제 연대, 판교에 떳다
한국‧베트남‧태국‧중국 참여, 제1회 심포지엄 개최
최근 빅테크 기업에서 출시하는 생성형 인공지능(AI)은 한 가지 공통점이 있다. 모두 안전성을 강조한다. AI가 악용되지 않도록 기술적, 합리적 조치를 했고, 지속 오용 방지를 위해 지속적인 노력을 하겠다는 내용을 담는다.
최근 구글은 오픈소스 모델인 제마를 공개하며 자동화된 기술을 사용해 학습 세트에서 특정 개인정보나 민감한 데이터를 필터링했다고 밝혔다. 또 인간 피드백을 기반으로 한 강화 학습(RLHF)을 적용하고, 레드팀을 구성해 적대적 테스트, 위험한 활동에 관한 모델 기능 평가 등을 수행했다고 했다. 스테빌리티AI도 스테이블디퓨전3를 공개하며 “우리는 안전하고 책임감 있는 AI 관행을 따른다”며 “사용자가 악의적으로 스테이블디퓨전3를 오용하는 것을 방지하기 위해 합리적인 조치를 했고 이를 지속할 예정”이라고 밝혔다.
국내 기업도 마찬가지다. LG AI연구원 사례가 대표적이다. 이곳은 지난달 30일 ‘LG AI 윤리 책무성 보고서’를 국문 버전과 영문 버전으로 발행, 투명하게 공개했다. 지난해 LG AI연구원이 수행한 AI 윤리원칙 이행의 주요 성과를 담은 보고서다. LG AI연구원은 보고서에서 “책무성은 기업이 당연히 이행해야 하는 법적 책임을 넘어, 자신의 행동과 결정에 책임감을 갖고 그 과정을 설명할 수 있어야 한다는 의미를 담고 있다”며 “LG AI 윤리 책무성 보고서는 LG AI연구원 스스로 책무성을 실천하겠다는 의지의 결과물”이라고 소개했다.
이처럼 기업들이 AI 윤리와 안전성을 강조하는 이유는 AI의 오용을 막고 기술로 사람이 피해 보는 사태를 막기 위해서다. 이 같은 노력은 국제 연합을 통해서도 이뤄지고 있다. 대표적인 사례가 지난 22일부터 양일간 그래비티 서울 판교 오토그래프 컬렉션에서 첫 국제 심포지엄을 연 ‘신뢰할 수 있는 인공지능 국제 연대(TRAIN 글로벌)’의 출범이다. AI 신뢰성 기업과 법조 전문가 등이 모인 국제 연합체다. 이름도 기차를 뜻하는 TRAIN이다. 이 연대는 22일 심포지엄을 개최하며 AI의 올바른 수용을 위한 신뢰성 확보‧강화 방향성과 국제 연대 가능성을 모색했다.
TRAIN 추진단장을 맡은 박지환 씽크포비엘 대표는 “이번 행사는 격변하는 AI 시대를 맞아 AI 윤리와 신뢰성을 어떻게 확보할 수 있을지에 대해 기업과 공공이 소속 국가 상관없이 열린 자세로 방향성을 모색한 뜻깊은 자리”라며 “공개 장소에서 다루기에 다소 어렵고 민감한 주제였음에도, 열린 마음으로 기술의 진보와 공공성을 진지하게 고민할 수 있었던 점에 큰 의미를 부여한다”고 말했다.
한편, TRAIN은 글로벌 AI 기술과 산업‧시장이 급변하는 상황에서 이질적인 문화와 제도‧정책으로 야기되는 다양한 문제를 민간이 공동 대응함으로써 AI 신뢰성을 확보‧강화하자는 목표로 탄생했다. ‘TRAIN 글로벌’을 중심에 두고 ‘TRAIN 코리아’ 등 개별 국가가 연결된 국제 조직으로, 현재는 한국‧베트남‧태국‧중국이 참여했고 일본‧싱가포르‧말레이시아‧인도네시아 등이 합류를 준비하고 있다.
TRAIN은 앞으로 각국의 AI 기술 동향과 제도‧정책 관련 정보를 공유하고, 인증을 비롯한 각종 규제에 기업 등이 대응할 수 있도록 국제 연대를 강화해 나갈 방침이다. 김완진 준비위원장은 “TRAIN은 앞으로 ‘공유’와 ‘교류’, ‘협력’이라는 실행 원칙에 따라 각자가 가진 지식‧경험‧정보 등을 공개하고 협력으로 이끄는 노력을 기울일 것”이라며 “이를 통해 단기적으로는 강화하는 글로벌 규제에 대응할 수 있는 기업 ‘컨설팅’에 나서고, 장기적으로는 실무에 즉시 투입할 수 있는 전문가 양성 및 이들을 위한 자격증 과정을 마련해 나갈 계획”이라고 말했다.
◇ 국제 심포지엄, 각국 관계자 모인 가운데 열려
첫날인 22일에는 국내외 정부‧공공기관과 AI 관련 기업‧협회‧단체를 비롯해 법조계와 학계 관계자가 모인 가운데 심포지엄을 열었다. 김완진 TRAIN 글로벌 준비위원장은 ‘TRAIN 비전 및 로드맵’, 정호원 고려대 경영학과 명예교수는 ‘EU AI Act와 미국 AI 행정명령’을 주제로 각각 기조 연설했다.
김완진 위원장은 연설에서 “AI 신뢰성을 확보하기 위해 뭉친 아시아 각국 민간 전문가가 모여 국경 없는 지식 공유 플랫폼을 제공하는 첫 행사를 열었다는 건 의미가 크다”며 “이번에 공개한 TRAIN 비전과 구체적인 로드맵은 물론, AI 신뢰성 강화와 확보 방안에 많은 관심 바란다”고 말했다.
정호원 명예교수는 “3년 전 EU의 AI Act 발표 이후 AI 신뢰성에 대한 규제가 새로운 국면에 접어들었고, 이어진 미국 행정명령으로 글로벌 AI 산업계가 크게 동요하게 됐다”며 “글로벌 규제 뒤에 숨어 있는 의미를 파악하고, 변화하는 규제 환경 속에서 우리의 위치를 확고히 해야 할 시점”이라고 강조했다.
◇ AI 신뢰성 확보 위한 노력 공개
기조연설에 이어 기술, 교육, 법‧제도‧정책 3개 세션별 주제 발표가 이어졌다. 기술 세션에서 우선 오스만 아티프(Othmane Atif) 씽크포비엘 연구원과 천선일 씽크포비엘 책임연구원이 차례로 AI 신뢰성을 위한 기술적 진단 모델과 전략적 실행 방안, 씽크포비엘이 그간 수행해 얻은 AI 신뢰성 진단 모델 적용 사례 등을 소개했다.
이어 안선호 KTL AI팀장은 AI 적합성 평가를 위해 국제표준화기구가 개발 중인 국제표준에 대해 조명하고, AI 산업의 성장과 혁신을 위해 설립된 산업AI국제인증포럼에서 제공하는 적합성 평가에 관해 설명했다. 박주식 포티투마루 이사는 대형언어모델(LLM) 도입 시 고려해야 할 환각‧보안‧비용 문제에 대해 짚고, 특히 환각 현상을 방지하고 ‘신뢰할 수 있는 앤서링 AI(Answering AI)를 구현한 실제 사례를 공개했다.
해외 강연자인 제랄드 아리프(Gerald Arif) 인도네시아 아시아사이버대학교 총장 고문과 찌에우 응우옌(Trieu Nguyen) 베트남 ‘VTC’ R&D센터장은 각국 교육계의 AI 신뢰성 교육 로드맵과 학습 경험 및 방법 등을 소개했다.
◇ AI 신뢰성 뒷받침할 법 고민돼야
법무법인 원 고인선‧오정익 변호사가 각각 좌장을 맡은 법‧제도‧정책 세션에서는 이유정 법무법인 원 변호사(AI 대응팀장)가 첫 번째 강연자로 연단에 올랐다.
이 변호사는 ‘AI와 인간의 공존을 위한 법과 윤리’를 주제로 강연했다. “AI 기술은 인간에게 더는 선택이 아닌 삶의 일부가 되었고, AI 기술로 인해 기존 법률과 윤리로 해결할 수 없는 문제가 늘었다”며 “죽음 이후 인격권의 침해 문제, 딥페이크 범죄, 로봇의 인격권 등 새로운 법적 문제가 등장하는 상황에서, 새로운 법과 윤리의 문제를 면밀하게 살피고 AI와 인간이 공존할 방안을 모색해야 한다”고 말했다.
이어진 발표에서 김윤명 경희대학교 법학과 교수는 “데이터를 다루는 학문인 데이터사이언스 분야에서도 데이터 자체 신뢰성을 위해 처리 과정 및 결과의 투명성을 확보해야 한다”며 “이를 교육 정책적으로 어떻게 뒷받침하는 게 바람직할지 모두가 고민할 시기”라고 강조했다.
◇ AI 신뢰성 향항 기업들의 행보
AI 신뢰성 확보를 위한 기업들의 행보도 발표됐다. 안소영 LG AI연구원 정책수석은 ‘LG AI연구원 사례를 통한 기업의 AI 윤리 실천 전략’을 소개했다. 안 수석은 “LG AI연구원은 AI 기술 연구를 선도하면서 윤리적 책무를 다하기 위한 노력에도 앞장서고 있다”며 “최근에는 AI 윤리원칙 실행을 위한 거버넌스를 구축했고, 이를 통한 구성원 참여 증진과 기술적 해결 등의 성과를 거뒀다”고 말했다. 안 수석은 “지난 1년간 AI 윤리 실행 성과를 담아 2023년 LG AI 윤리 책무성 보고서를 발간했는데, 책무성은 기업이 당연히 이행해야 하는 법적 책임을 넘어, 자신의 행동과 결정에 책임감을 느끼고 그 과정을 설명할 수 있어야 한다는 의미를 담고 있다”고 덧붙였다.
해외 참석자 가운데 텝차이 숩니티(Thepchai Supnithi) 태국 국립전자컴퓨터기술원(NECTEC) AI연구그룹 이사와 흥 팜(Hung Pham) 베트남 ‘VTC’ AI 연구원은 각각 태국 현지 의료‧농업 등의 AI 연구개발 과정과 베트남 VTC 사례를 통한 AI 응용 과정 등을 소개하며 동남아시아에서 이뤄지고 있는 AI 신뢰성 확보 방안을 공유했다.
◇AI 신뢰성, 새로운 기회 제공
박현희 국민대 행정학과 교수가 좌장을 맡은 교육 세션에서는 먼저 김명락 초록소프트 대표가 AI 개발 인력에 필요한 지식 영역을 분류해 제시했다. 김 대표는 “신뢰할 수 있는 AI를 개발하기 위해서는 전문적이면서 세분된 지식이 필요한데, 이는 AI 라이프사이클과 유사한 7개 영역으로 구분할 수 있다”며 “AI 기술을 더욱 안전하게 관리하려면 올바른 AI를 만들 수 있는 전문가를 양성해야 하고, 이를 위해 지금이라도 실천적인 준비가 이뤄져야 한다”고 말했다.
김영찬 전주정보문화산업진흥원 ICT융합산업팀 선임과 전영준 부산IT융합부품연구소 실장은 주로 AI 시대 지역 격차가 벌어진 수도권과 지방 간에 균형 발전 방안을 언급했다. 김영찬 선임은 AI 시대 지역 격차를 해소하기 위한 진흥원의 역할 재정립에 주목했다. 김 선임은 “AI 대격변으로 산업 생태계가 원점에서 다시 시작하게 됐는데, 이중 인력 문제가 지역 격차를 심화하는 핵심 원인이 되고 있다”며 “이를 해결하지 못하면 수도권과 격차가 더욱 크게 벌어질 것”이라고 우려했다. 그러면서 김 선임은 “AI 기술 도입이 산업계를 재편하면 역으로 지역의 고질적인 인력 수급 문제가 해결될 수 있다”며 “AI 신뢰성과 같은 이제껏 없던 영역에서 새로운 역량을 갖춘 인력을 지역 사회가 육성할 수 있도록, 진흥원이 장기적인 안목을 갖고 접근할 필요가 있는데, 전국의 진흥원이 서로 연계해 범 지역 추진체로서 역할을 맡는 게 하나의 방법”이라고 덧붙였다.
전영준 실장은 AI 신뢰성 분야와 관련한 지역 특화 산업 육성을 주장했다. 전 실장은 “AI 신뢰성과 같이 이전에 없던 새로운 기술이 도입되면 수도권과 지역의 출발선이 같아지는 효과가 생기고, 산업 생태계가 완전히 달라져 모두가 제로에서 출발하면 지역 격차가 무의미해질 수 있다”며 “특히 지역거점 특화 산업으로 육성하면 역으로 수도권 기업을 지방으로 유치할 수 있는데, 증강 데이터와 같은 일종의 가짜 데이터로 AI를 학습시키는 ‘시뮬레이션’을 지역거점 특화 산업으로 육성하자”고 말했다.