“안전한 AI 체계, 탈중앙화에서 시작된다”
[AWC 2022 in Busan] 벤 괴르첼 오픈코드 파운데이션 회장,
AI 신뢰성 강화 방안으로 ‘공급 다변화’와 ‘표준 규격 마련’ 강조
인공지능(AI)의 안전한 사용을 위해선 빅테크 기업의 독점에서 벗어난 ‘탈중앙화’가 필요하다는 의견이 개진됐다. 일부 기업이 AI 기술을 독점하는 경우 해당 기업이 개발한 AI 알고리듬의 편향성이 일반화될 수 있고 보안이 뚫릴 경우 사회적으로 심각한 문제를 양산할 수 있어서다.
벤 괴르첼 오픈코드 파운데이션 회장은 29일 부산 벡스코에서 열린 글로벌 AI 컨퍼런스 ‘AWC 2022 in Busan(AWC 부산)’ 기조연설에서 “사람이 생각하는 기준이 모두 다른 것처럼 AI도 필연적으로 편향성을 가질 수밖에 없다”며 “이 문제를 줄이기 위해선 AI의 탈중앙화가 필요하다”고 말했다.
AI가 편향성을 가지게 되는 이유로 최근 AI 모델 개발에 자주 사용되는 ‘강화학습’을 예로 들었다. 강화학습은 현재 상태에서 어떤 행동을 취하는 것이 최적인지를 학습하는 머신러닝의 한 방법이다. 행동을 취할 때마다 보상을 주면서 이러한 보상을 최대화하는 방향으로 AI를 학습한다. 벤 괴르첼 회장은 이 학습을 할 때 보상을 주는 기준이 국가나 기업별로 다를 수 있다고 주장했다. 그는 “보상을 주는 행동은 자기중심적일 수 있다”면서 “이로 인해 AI는 필연적으로 편향성 문제를 갖게 된다”고 말했다.
이 문제는 AI의 ‘설명 가능성’과도 연결된다. 최근 AI 분야에서는 신뢰성 확보를 위해 ‘왜 AI가 그러한 결정을 했는지’ 설명하려는 시도가 이뤄지고 있다. 벤 괴르첼 회장은 이 설명 가능성이 100% 이뤄질 가능성은 적다고 주장했다. “사람이 자신이 중요하게 생각하는 분야를 왜 그렇게 생각하는지 설명하지 못하는 것처럼 AI도 추론한 내용을 정확하게 설명하긴 힘들다”며 “아무리 똑똑한 사람도 자신의 주장에 대해서 잘 설명하지 못하는 경우가 있듯이 AI도 엄청나게 좋은 성능을 갖췄다 하더라도 설명 가능성과는 다른 얘기”라고 말했다.
AI 탈중앙화는 이 문제를 줄일 수 있는 방안이다. 기업별로 중요하게 생각하는 분야가 다르므로 많은 기업이 AI 모델을 개발한다면 다양한 기준을 가치로 한 AI가 만들어지기 때문이다. 이 문제는 보안 문제도 줄일 수 있다. AI 시장을 독점하고 있는 기업이 사이버 공격을 당할 경우 사회적으로 큰 악영향을 줄 수 있지만 여러 기업이 AI 모델을 만들고 서로 협력해 보안 체계를 강화하면 더 강화된 보안 체계를 갖출 수 있어서다.
벤 괴르첼 회장은 탈중앙화로 협력하는 모델을 만들기 위해선 이를 위한 네트워크뿐 아니라 보안 등에 관한 표준 규격도 마련해야 한다고 밝혔다. 각 기업이 가진 보안 제도와 AI 윤리 방침 등을 표준화하고 다자간 컴퓨터에 대한 보안 체계를 갖춰야 사회가 요구하는 궁극적인 ‘안전한 AI’를 실현할 수 있다고 주장했다.
벤 괴르첼 회장은 “AI가 탈중앙화되고 이러한 모델을 네트워크로 연결한다면 더 공정하고 안전한 ‘AI 사회’를 구현할 수 있을 것”이라면서 “AI 기업은 안전한 배포, 분산컴퓨팅 처리. 다자간 컴퓨팅 및 암호화 기술 등을 토대로 안전한 AI를 구축해야 한다”고 강조했다.