“당장의 규제보단 AI 정착에 실용적인 논의 필요”
-
유럽연합(EU)이 인공지능(AI) 규제법을 마련해 단계적으로 시행키로 하면서 AI 규제에 관한 관심이 커졌다. AI 기술 발전의 진흥 역시 중요하지만, 이로 인한 부작용과 피해를 줄여야 한다는 사회적 요구가 커졌다는 것을 증명한 사례여서다.
이 법안은 지난 13일(현지시간) 프랑스 스트라스부르에서 열린 본회의를 통과해 EU 회원국 승인 과정을 거쳐 올해 말부터 2027년까지 단계적으로 시행될 예정이다. 한국에서도 현재 AI 기본법에 관한 논의가 이뤄지고 있다. 국회에도 AI 관련 법안이 발의돼 있다. 그만큼 AI로 인한 피해를 방지하고 이를 넘어 규제를 마련하는 것에 관한 사회적 요구가 커졌다고 볼 수 있다.
그렇다면, 국내 AI와 법, 윤리 전문가들은 AI 법안 마련에 어떻게 생각하고 있을까. THE AI 취재 결과, 전문가들은 AI 법안에 관한 여러 이야기가 있지만, 규제 수준에 차이를 두고 시행한 점은 의미가 크다고 평가했다. 단, 한국이 EU처럼 빠르게 규제법을 마련해선 안 된다고 입을 모았다. 한국이 AI 수용력이 높은 만큼, 당장 규제하기보다는 AI로 바뀌어 갈 사회제도 등에 관한 실질적인 논의를 해야 AI 기술 발전과 정착에서도 모두 앞서갈 수 있다고 조언했다. 이번 취재에는 △하정우 네이버클라우드 AI 이노베이션 센터장 △김유철 LG AI연구원 전략부문장 △김봉제 서울교대 AI 가치판단 디자인센터장(윤리학과 교수) △오정익 법무법인 원 변호사 △양진영 법무법인 민후 변호사가 참여했다.
◇ 유럽 AI 발전 위축… 자본에 의한 차별 발생 가능성 커
전문가들은 EU의 AI 법이 포괄적으로 되어 있지 않고 규제 수준을 둔 점은 잘했다고 보았다. EU 법안에는 사람에게 위험을 주는 요소로 기준을 둬 AI를 4등급으로 나눠 규제를 적용했다. ‘사용하면 안 되는 AI, 고위험 AI, 중위험 AI’ 등이다. 고위험 등급에는 의료, 교육, 공공 서비스, 선거, 자율주행 등에 AI 기술을 사용하는 경우가 포함됐다. 이 경우 AI 활용 시 사람이 반드시 감독하고 위험관리시스템을 구축해야 한다는 내용을 담았다.
김유철 LG AI연구원 전략부문장은 “현존하는 다양한 AI를 인권침해나 위험성에 따라 구분하고, 이에 따라 규제 수준에 차이를 둔 점은 의미가 있다”면서 “사용하면 안 되는 AI나 고위험 AI는 어느 정도 인정할만하다”고 평가했다. 양진영 법무법인 민후 변호사는 “고위험으로 분류되는 분야의 경우 사람의 감독을 필수로 하고 위험관리시스템을 구축해야 하도록 규정했는데, 이는 바람직하다고 보인다”고 했다.
단 처벌이 강해 AI 발전이 위축될 가능성을 염려했다. 특히 이 법안으로 유럽이 AI 혜택을 받지 못할 가능성도 있다고 했다. 김 부문장은 “EU AI 법안의 핵심은 인권이나 혁신보단, 유럽 시장에서 AI 사업을 하려면 이 규제를 따라야 한다는 주도권 싸움의 색이 강하다”면서 “유럽 시장이 작아져서 이 법으로 인해 유럽은 고립되고 AI 혜택을 받지 못하게 될 수 있단 의견이 많다”고 말했다. 하정우 네이버클라우드 AI 이노베이션 센터장은 “유럽이 GDPR(유럽연합 일반 데이터 보호 규칙) 이후 미국과의 기술 격차가 많이 커졌다”면서 “이번 법안 마련으로 격차가 벌어지는 과정을 되풀이할까 염려된다”고 했다.
법 전문가도 의견을 같이했다. 오정익 법무법인 원 변호사는 “이번 법안이 시행되면 AI 회사들은 유럽 시장 진출에 상당한 부담을 가질 것으로 보인다”면서 “일례로 고위험 AI 시스템 공급자는 위험관리체계와 품질관리시스템을 마련하고, 기술문서 등의 문서를 작성하며 적합성평가절차를 시행해야 하는 등 의무를 부담할 수밖에 없고, 위반 시 과징금을 물어야 한다”고 말했다. 양진영 법무법인 민후 변호사도 “EU는 실제 법 시행 이후 분야별 위험 수준이 적절한 등급으로 분류돼 있는지 다시 논의해야 하고 시장에 영향을 주지 않는지 살펴볼 필요가 있다”고 조언했다.
EU AI 법으로 또 다른 차별이 생길 수 있다는 가능성도 제기됐다. 자본에 따른 차별이다. 빅테크 기업은 해당 법안에 맞춰 기술을 준비하고 대응할 수 있지만, 중소기업이나 스타트업은 법률 자문도 받을 시간이 없어 일일이 대응하기 힘들단 지적이 나왔다.
김봉제 서울교대 교수는 “AI를 활용한 기술의 준법 여부를 확인하기 위한 개인정보 보호, 사이버 보안, 인권, 윤리적, 사회적 영향 등을 고려한 종합적인 검토와 성능 평가에는 상당한 비용이 소요된다”면서 “이 비용을 대기업에서는 감당할 수 있지만, 중소기업, 신생기업은 감당하기 어렵다”고 말했다. 이어 “법안에서 제시한 기준을 확보하기 위한 소요 비용을 감당할 수 없는 기업은 AI 시장 진입이 불가능할 수 있다”면서 “이는 AI 법안의 목적 중 하나인 ‘인간을 행복하게 하는 AI 생태계 구축’을 불가능하게 하는 요건이 될 수 있다”고 지적했다.
◇ 한국은 신중한 자세 필요, 규제보단 AI 정착에 따른 제도 마련이 중요
EU AI 법안에 따른 부작용이 있는 만큼, 국내에서는 법안 마련에 신중해야 한다는 게 전문가들의 공통된 의견이다. 현재 국내에선 AI 기본법 등이 국회에 발의돼 있다. AI 콘텐츠에 관한 표시 의무를 규정한 정보통신망법 일부개정안, 콘텐츠산업진흥법 일부개정안 등이 국회 통과를 기다리고 있다. 양진영 법무법인 민후 변호사는 “인공지능책임및규제법안 발의안은 ‘AI, 금지된 AI, 고위험 AI, 저위험 AI’ 등으로 나눠 규정하고 있다”면서 “고위험 AI에 대한 확인제도, 신뢰성, 안전성 확보조치에 대해 규정하고 있다”고 설명했다. 이어 “이미 통과된 법 외에도 각 분야에서 여러 AI 관련 법률안이 현재 국회 통과를 기다리고 있다”면서 “EU AI법 가결로 인해 속도가 붙을 것으로 예상된다”고 보았다.
하지만 AI 법안 마련에선 신중한 자세가 필요하다는 조언이 개진됐다. 하정우 네이버클라우드 센터장은 “기술은 매우 빠르게 변하고 있는데, 법은 경직되어 있고 수정이 어려워 대응이 쉽지 않다”면서 “특히 진흥법이 아닌 규제법은 한 번 만들면 수정이 어려우므로 신중할 필요가 있다”고 조언했다. 이어 “법보다는 다소 유연한 가이드라인이나 자율규제 등으로 안전을 챙기면서도 경쟁력을 극대화하는 자세가 필요하다”고 했다.
김유철 LG AI연구원 부문장도 굳이 AI 법을 빠르게 만들 필요는 없다고 했다. “이미 한국은 과학기술정보통신부 등에서 신뢰할 수 있는 AI 개발방법론 등을 만들고, AI 신뢰성 자율인증체계 등을 도입해 세계적으로 좋은 사례들을 만들어가고 있다”면서 “한국은 현재 산업이나 공공영역에서 AI를 빠르게 도입하고 있고, 국민의 AI 관심과 이해 수준도 높으므로 규제보단 좋은 사례를 만들어가는 것이 필요하다”고 말했다.
양진영 변호사는 “한국은 법을 만들어놓고 현실에 대입한 후 문제점을 해결하는 식으로 전개되는 경우가 많은데, AI의 경우 인류와 사회에 끼칠 영향이 크기 때문에 속도를 늦추고 합의와 논의를 진행해야 한다”면서 “개인정보보호법이 전면적으로 개정될 때 AI를 통한 자동화된 결정에 대한 정보 주체의 권리 관련 조항(개인정보보호법 제37조의2)에 대해선 시행일을 다른 개정 조항보다 6개월가량 늦춘 적이 있는데, 이처럼 AI 관련 조항에 관해 시행일을 늦추는 등의 방법을 통해 법 시행 전 국민과 기업이 준비할 시간을 줘야 한다”고 주장했다.
오정익 변호사도 “EU가 선도적으로 법안을 마련하고 발표했지만, 미국 등 주요 AI 국가는 구체적인 법안을 마련하지 않고 있다”면서 “한국도 법안 마련보단 주요 국가들의 규제 정도를 살피며 산업 육성을 하는 편이 옳다”고 했다. 이어 “EU의 경우 AI 법을 만들기 위해 수백 회의 공청회를 하는 등 많은 의견을 듣고, 많은 연구를 했다”면서 “한국도 무작정 법을 만들기보다 다양한 의견을 듣고 깊은 연구를 통해 법안을 마련해야 한다”고 조언했다.
규제보단 올바른 AI 정책을 위한 논의가 더 필요하다는 의견도 나왔다. 김유철 LG AI연구원 부문장은 “AI로 인해 근무시간 감소, 일자리 감소, 소득양극화 심화 등 여러 사회 변화가 예상된다”며 “규제를 만들기보다 이런 상황을 어떻게 대처할 것에 관한 논의가 많이 일어나야 한다”고 말했다. 또 “AI가 발전하면서 AI와 대화하며 위안을 얻는 사람도 많아지고 반대로 인간과의 대화가 줄어들 수도 있다”면서 “결국 AI는 인간성에 대한 고찰을 더 필요하게 할 수 있으므로 기술에 과도한 두려움을 갖거나 규제를 만들기보단 AI를 도입하는 과정에서 인간성을 상실하게 하는 변화 등에 대한 충격을 완화할 수 있는 제도 도입에 관해 논의했으면 좋겠다”고 희망했다.
김봉제 서울교대 교수는 “AI로 국민의 안녕과 행복을 확보할 수 있어야 하고 기술력도 갖춰야 한다”며 “앞으로 우리 사회가 경험하지 못한 환경이 올 것이고 이를 예측해야 하므로 정부에선 발생할 수 있는 문제를 최소화하기 위한 매우 종합적이고 심도 높은 논의를 지원해야 한다”고 조언했다. 또 “이 논의에는 국방, 반도체, 로봇, 바이오, 의료, 컴퓨터 공학 등 각 전문가가 준비부터 확정 단계까지 지속 참여해 자신들의 영역에서 발생할 수 있는 문제 등에 대해 지속 의견을 낼 수 있게 해야 한다”면서 “단지 한 두 번의 자문이나 의견 제시 등 일시적인 형태가 아닌 지속해서 논의할 수 있는 환경을 제공해야 한다”고 강조했다.
- 김동원 기자 theai@chosun.com