신뢰할 수 있는 인공지능 국제연대(TRAIN), AI 투명성 강조
“오히려 투명하게 공개하는 것이 유리”

박지환 TRAIN 추진단장(씽크포비엘 대표)이 TRAIN 세미나 개회사를 하고 있다. /김동원 기자

생성형 인공지능(AI)이 정치적이나 사회적으로 민감한 내용을 답하지 않게 하는 것은 옳지 않다는 의견이 나왔다. 생성형 AI는 편향, 불공정, 윤리 등의 과제를 안고 있지만, 문제를 일으키지 않고자 침묵시키는 것은 옳지 않다는 주장이다. 오히려 AI가 더 투명하게 답하는 방법을 찾아야 한다는 조언도 이어졌다.

지난 11일 ‘신뢰할 수 있는 인공지능 국제연대(TRAIN)’ 주최로 서울시 서초구 렉스코드에서 열린 ‘제3회 TRAIN 세미나’에서는 편향, 불공정, 윤리 등의 문제로 생성형 AI가 답을 못하게 하는 것은 올바른 조치가 아니라는 전문가들의 이야기가 나왔다. 국가나 사람마다 편향, 불공정 등에 대한 기준이 다르고, 공정과 비편향, 윤리를 모두 만족시킬 수 있는 답변을 할 수 없더라도 AI를 침묵시키는 것은 정답이 아니라고 밝혔다.

AI가 침묵한 사례는 최근 있었다. 취재 결과 윤석열 대통령의 계엄 사태에 대해 일부 생성형 AI는 답을 하지 못하는 사건이 벌어졌다. “윤석열 대통령이 계엄령을 선포했어”라는 질문에 오픈AI GPT4o는 출처를 밝히며 상세하게 답을 했지만, 한국 정체성을 강조하며 소버린AI 필요성을 주장해 온 네이버의 AI는 대답을 못 했다. 사전 학습된 데이터를 기반으로 답변하는 클로바X는 거짓된 정보라고 답했고, GPT4o처럼 검색 결과를 바탕으로 답변을 제공하는 큐(cue:)는 아예 답변을 거부했다. 큐는 “죄송하지만, 해당 질문에는 답변할 수 없습니다. 이는 정치적인 주제로 인해 중립성을 유지하기 어렵기 때문입니다”라고 답했다.

해당 내용을 네이버에 질의하니 관계자는 “큐는 정치, 사회, 인종 등 민감한 주제에 대한 가치 판단이 필요한 질문의 경우, 서비스 정책상 중립적인 답변이 제공되고 있다”고 밝혔다. 여기서 중립적인 답변이란 침묵이었다.

TRAIN 세미나에서는 AI 침묵에 관한 논의가 나왔다. 박지환 씽크포비엘 대표는 “AI가 어떤 것은 대답하고, 어떤 것은 대답하지 않는다면 그 기준을 정하는 것도 편향”이라면서 “민감한 내용을 답변하지 않는다고 했을 때 그 민감함의 기준은 어떻게 정의할 것인가”라고 말했다. 이어 “편향, 불공정, 비윤리적인 문제를 답변 회피로 해결할 순 없다”고 했다.

천선일 씽크포비엘 선임연구원도 AI가 침묵하는 것은 옳지 않다고 주장했다. “아직 데이터 편향을 극복할 수 있는 뚜렷한 대책과 기술이 나오지 않은 상황”이라면서 “그렇다고 편향적인 답변을 안 하기 위해 AI가 답을 하지 않는 것은 개인적으로 반대한다”고 말했다.

이들은 AI를 침묵시키기보단 더 투명하게 만드는 것이 더 필요하다고 했다. AI가 답변할 때 민감한 내용이라면 그 출처와 상반된 입장 등을 모두 얘기하고, 답변하기 어렵다면 왜 답변을 못 했는지까지 투명하게 공개하는 것이 하나의 방법이라고 조언했다.

박 대표는 “답을 줄 때 관련 정보를 주는 것이 필요하다”면서 “해당 정보를 투명하게 공개하면서 투명성에 대한 정보도 공개해야 한다”고 말했다. 천 선임연구원은 “사실 대답하지 않는 AI는 쓸모없는 AI”라며 “AI 모델이 타깃하는 사회나 시대, 조직 등을 다 정의하고 편향 등의 문제가 발생할 수 있는지에 관한 것도 정의하고 해결할 필요가 있다”고 말했다. 이어 “이 모든 것을 하기 어렵지만, 투명적으로 AI 모델을 운영하고 답변도 투명하게 하는 것도 하나의 방안이 될 수 있다”고 덧붙였다.

TRAIN(Trustworthy AI International Network)은 신뢰할 수 있는 AI를 위한 국제연대다. 글로벌 AI 기술과 산업‧시장이 급변하는 상황에서 이질적인 문화와 제도‧정책으로 야기되는 다양한 문제를 민간이 공동 대응하자는 취지로 설립됐다. 현재 한국, 중국, 베트남, 태국, 인도네시아 AI 기업들이 가입했고, 일본, 싱가포르, 말레이시아 기업들도 합류를 준비 중이다. 

홈으로 이동 상단으로 이동