“안전한 AI 활용 위한 ‘도덕’ 얘기는 이미 많이 했다”
실질적인 안전 이끌 기술 필요, 새로운 기회 시장이기도

박지환 TRAIN 추진단장(씽크포비엘 대표)는 “우리는 지금까지 윤리 얘기는 충분히 들었다”며 “도덕적인 얘기는 더 들을 필요는 없을 것 같다”고 말했다. /김동원 기자

인공지능(AI) 윤리는 이제 그만 얘기할 때가 됐다는 의견이 AI 업계에서 나왔다. AI 안전성 확보를 위해선 도덕적 기준을 얘기하는 윤리보단 실질적인 기술이 필요하단 주장이다.

지난 7일 서울 강남 앙트레블에선 AI 신뢰성 강화를 위한 국제연대 ‘트레인(TRAIN)’이 AI 투명성을 주제로 세미나를 개최했다. 이날 현장에선 AI 신뢰성을 강화하기 위해선 윤리만 강조하는 현 상황을 타개해야 한다는 데 의견이 모아졌다. 2020년 12월 출시된 스캐터랩의 AI 챗봇 ‘이루다’가 사회적 물의를 일으킨 이후 약 4년 동안 윤리의 중요성을 강조했으니, 이젠 AI 안전망을 마련할 실질적인 기술을 논할 때라는 의견이다. AI 관계자는 ‘AI 개발자나 사용자가 도덕적 기준이 부족해 악의적으로 AI를 개발, 활용하는 것인가’라는 질문에 이제 귀를 기울여야 하고, 사실 지금도 늦은 편이라고 목소리를 냈다.

박지환 TRAIN 추진단장(씽크포비엘 대표)은 환영사에서 “우리는 지금까지 윤리 얘기는 충분히 들었다”며 “도덕적인 얘기는 더 들을 필요는 없을 것 같다”고 선을 그었다. 그 근거로 “이미 5년 전에 인공지능 윤리 백서를 발간했고 그동안 충분히 가이드라인 등 AI 윤리에 관한 많은 발표와 얘기가 이뤄졌다”고 설명하며 “윤리라는 것은 인류 역사상 단 한 번도 중요하지 않았던 적이 없었던 만큼, AI에 상관없이 늘 중요한 것이고 AI 분야에선 이제 기술을 얘기할 때”라고 강조했다.

그는 기술이 법보다 앞서야 한다고도 했다. AI가 인류에 미치는 위험성이 있으므로 이를 기술적으로 예방해야 하고, 기술로 극복할 수 없는 건 법으로 강제해야 한다고 했다. “지금까지 데이터 편향 문제의 중요성은 많이 언급됐지만, 데이터 편향을 방지할 기술에 대해선 많이 얘기되지 않았다”며 “AI 챗봇이 신뢰가지 않는 답변을 하거나 도덕에 어긋난 답변을 하는 것은 개발자들이 비윤리적이거나 악의가 있어서가 아니라 신뢰성 관련 기술이 부족했고 관리할 능력이 적었던 것인데, 너무 우리가 윤리에만 매몰되는 것은 아닌가 염려된다”고 했다.

세미나에서 참가한 이들도 유사한 의견을 냈다. 한 기업 대표는 “AI는 국내에서만 머물러선 사업이 되지 않고 결국 해외로 가야 하는데, 글로벌에서 인정받으려면 결국 AI 신뢰성에 관한 기술이 필요하다”며 “기업의 윤리 선포 등은 결코 도움이 되지 않는다”고 말했다. 또 다른 참가자는 “EU 등 국가들이 AI 법을 제정하고 있는데 이러한 법들에 모두 맞춰 제품들을 수출하려면 글로벌 수준에 맞는 기업 정책과 기술이 중요하다”고 했다.

천선일 씽크포비엘 책임연구원은 “AI 투명성 분야에선 XAI 분야, 즉 설명할 수 있는 AI 외 다른 기술은 찾기 어렵다”고 지적했다. /김동원 기자

천선일 씽크포비엘 책임연구원은 이날 발표에서 해외에선 AI 투명성 관련 검증도구가 이미 활용되고 있다고 밝혔다. 싱가포르에선 비영리재단인 ‘AI Verify Foundation’에서 개발한 AI 테스트 도구 ‘AI Verify’를 활용하고 있고 미국은 IBM과 같은 기업이 개별적으로 진단 도구를 개발, 사용하고 있다고 했다. 반면, 한국은 개발안내서 등은 개발됐지만, 실질적인 진단 도구와 같은 기술은 찾아보기 어렵다고 했다. 천 책임연구원은 “AI 투명성 분야에선 XAI 분야, 즉 설명할 수 있는 AI 외 다른 기술은 찾기 어렵다”면서 “싱가포르와 같은 모범 사례를 참고할 필요가 있다”고 조언했다.

박지환 TRIAN 추진단장은 세미나 후 기자와 별도로 진행한 인터뷰에서 “글로벌에서 요구하는 수준에 맞춰 필요한 기술을 개발할 필요가 있다”며 “자동차가 눈길에 미끄러지는데 이를 계몽해서 고치지 않고 브레이크 기술을 발전시키듯, AI 안전 기술을 만들 수 있는 환경이 필요하다”고 말했다. 이어 “약 4년 전 스캐터랩의 이루다 사건이 터졌을 때 AI 안전 기술 발전에 매진했다면 한국이 AI 신뢰성 기술 분야에서 앞설 수 있었는데, 너무 윤리만 강조해 선점할 수 있는 기회를 놓친 것 같아 안타깝다”고 했다.

고인선 법무법인 원 인공지능대응팀 변호사가 ‘법에서 요구되는 AI 투명성’을 주제로 강연하고 있다. /김동원 기자

한편, 이날 세미나에선 고인선 ​법무법인 원 인공지능대응팀 변호사와 안선호 KTL AI팀장, 천선일 씽크포비엘 책임연구원이 나와 AI 투명성에 관해 논의했다. 고 변호사는 ‘법에서 요구되는 AI 투명성’을 주제로 법률적으로 고려해야 할 사항과 EU AI Act 등을 발표했다. 안선호 KTL AI팀장은 ‘국제 표준 AI 투명성의 정의와 체계 분석’ 주제로 기술적 관점에서 투명성이 어떻게 다뤄져야 하는지를 제시했다. 천선일 씽크포비엘 책임연구원은 ‘AI 투명성 적용 국제 사례’ 주제로 AI 시스템 개발 시 필요한 투명성 요구 사항과 국내외 적용 사례를 소개했다.

홈으로 이동 상단으로 이동