포커스

“AI 윤리 문제 산적, ‘사회적 합의’로 빠르게 풀어야”

기사입력 2022.09.29 17:20
[AWC 2022 in Busan] 이유정 법무법인 원 변호사, AI 윤리적 문제 해결책 제시
  • 이유정 변호사가 AWC 부산에서서 ‘인공지능 윤리와 법’을 주제로 강연하고 있다. /THE AI
    ▲ 이유정 변호사가 AWC 부산에서서 ‘인공지능 윤리와 법’을 주제로 강연하고 있다. /THE AI

    인공지능(AI) 기술이 일상에 빠르게 적용되면서 풀어야 할 과제도 양산하고 있다. 기존에 없던 생소한 기술이 일상에 접목되면서 법과 규제에 벗어난 새로운 문제들이 생겨나고 있는 것이다. AI 전문 법률가로 활동하고 있는 이유정 법무법인 원 변호사는 이 문제를 빠른 ‘사회적 합의’로 풀어야 한다고 조언했다.

    이유정 변호사는 29일 부산 벡스코에서 열린 글로벌 AI 컨퍼런스 ‘AWC 2022 in Busan(AWC 부산)’에서 ‘인공지능 윤리와 법’을 주제로 발표했다. 이 자리에서 그는 “AI는 어떤 현상을 양산할지 사람이 상상하지 못할 정도로 빠르게 발전하고 있다”며 “AI의 주체는 사람이기 때문에 이 기술을 어디까지 허용해야 하는지 끊임없이 고민하고 사회적 합의를 이뤄가야 한다”고 말했다.

    이 변호사는 AI가 가져오는 법적 문제로 △성희롱 △개인정보 침해 △알고리듬의 투명성과 공정성 △저작권 문제 등을 꼽았다.

    성희롱 문제는 AI 음성 기술에서 많이 나타났다. 대표적인 사례가 챗봇이다. 스캐터랩이 2020년 12월 출시한 일상 대화형 챗봇 ‘이루다’는 누구에게나 좋은 말동무가 되는 AI를 목표로 개발됐지만 심각한 부작용을 양산했다. 서비스 과정에서 여성·유색인종·장애인·성소수자 관련 혐오 발언을 쏟아냈다. 개인정보 유출 논란까지 불거져 서비스는 20일 만에 중단됐다.

    콜센터에 적용되고 있는 AI 상담원도 기존에 없던 문제를 양산하고 있다. AI 상담원이 보통 여성 음성을 사용하기 때문에상담을 하는 사람은 자신이 AI와 통화하는지 사람과 통화하는지 주체를 모를 수도 있다. 이 변호사는 “공공기관의 챗봇 상담원과 대화를 하면서 성희롱 발언을 해서 기소된 사건이 있었다. 챗봇과 대화를 하더라도 상담 직원이 이를 읽게 되는데, 피고인은 그 사실을 몰랐던 것이다. 법원은 피고인이 상담 직원에게 성희롱과 욕설이 전달된다는 사실을 몰랐다는 이유로 무죄를 선고했다”면서 “AI를 이용한 음성 상담이나 챗봇 서비스가 늘어나면 이러한 문제들이 다양하게 나타날 것”이라고 말했다.

    개인정보 침해 문제는 데이터 학습 과정에서 나타난다. 대표적인 사례가 법무부의 공항 자동출입국심사 강화를 위한 ‘AI 식별 시스템 개발’ 사례다. 지난해 10월 법무부는 출입국심사대를 통과하는 사람의 신원을 식별할 수 있는 AI 기술을 개발하는 과정에서 내·외국인 얼굴 사진 등 1억 7000만여 건의 개인정보를 민간 AI 업체에 넘겼다는 의혹을 받았다. 그런데 이 사항은 법적으로 문제가 없다는 결론이 났다. 출입국 관리법에는 안면 정보나 생체 정보를 이용할 수 있는 근거가 있고 민간 기업이 해당 정보를 외부로 유출한 것이 아니라 법무부 서버에서만 사용할 수 있었기 때문이다.

    이 변호사는 “많은 사람이 자신의 개인정보 유출에 불안해했지만 이 사항은 민간 기업 위탁 고지 사항을 지키지 않은 것만 불법으로 인정되어 과징금만 부과됐다”며 “AI가 데이터를 토대로 개발되므로 개인정보 침해 문제에 관한 해결책이 인공지능 기술을 사용하는 기업들에게 요구되고 있다”고 말했다.

    AI 투명성은 AI가 사람을 평가하는 데 어떤 기준을 갖고 어떻게 평가하느냐와 연관된 문제다. 대표 사례가 AI 면접이다. 현재 사용되고 있는 일부 AI 면접 공급사의 기술은 AI가 어떤 기준으로 사람을 평가했는지 투명하게 설명하지 못한다. 이 문제는 공정성 문제와도 연관된다. AI 면접은 데이터 학습 과정에서 편향된 데이터를 사용할 경우 공정하지 않은 평가를 내릴 수 있기 때문이다. 이 변호사는 “예를 들어 여성들은 일찍 퇴사하는 경향이 있다는 데이터로 AI를 학습시키면 AI 면접에서는 여성이라는 이유로 낮게 평가하거나 채용을 하지 않는 결과가  생길 수 있다”고 지적했다.

    저작권 문제도 화두다. AI가 작곡한 음악이나 그린 그림의 저작권을 AI가 소유할 수 있냐는 문제다. 법적으로는 AI가 인격이 없으므로 권리를 인정할 수 없다. 저작권법에 따르면 창작물은 인간의 창작물에 대해서만 저작권을 인정하기 때문이다. 이 변호사는 “지금은 AI에 관한 저작권이 인정되지 않고 있다”면서도 “앞으로는 알고리듬을 이용해 어떤 저작물을 만들었을 때 그 알고리듬을 만든 사람에게 저작권을 인정해야 한다는 법률 개정안들이 발의되어 있어서 조만간 관련 법도 바뀔 것으로 예상된다”고 말했다.

    이처럼 AI 법과 관련된 산적한 문제에 대해 이 변호사는 사회적 합의를 통한 ‘윤리’로 풀어야 한다고 강조했다. 과학 기술이 어떤 현상을 일으킬지 사전에 예상하기 힘든 만큼 법으로 미리 규정해 두기 어렵고, 개별 사안마다 평가가 다를 수 있기 때문에 윤리원칙에 기반하여 자발적인 사전 규제를 하는 것이 바람직하다는 것이다.

    이 변호사는 “규제란 기술발전과 인권 사이에 균형을 잡을 수 있는 방향으로 자연스럽게 이뤄져야지, 어떤 상황이 벌어질지도 모르는데 미리 법률을 만들어 엄격한 규제를 하는 것은 옳지 않다. 다만 심각한 위험을 야기할 수 있는 인공지능 기술에 대해서는 법적인 규제가 필요하다”며 “규제를 먼저 내놓기보단 AI가 가져올 문제에 대해 여러 분야의 사람들이 함께 토론하고 이를 토대로 사회적 합의를 이뤄야 진정 ‘사람을 위한 AI’를 실현할 수 있다”고 강조했다.

최신뉴스