포커스

[칼럼] 인공지능 윤리 표준화가 시급하게 필요하다.

  • 소순주 ㈜코어소프트 대표이사/컴퓨터교육학 박사
기사입력 2023.03.22 18:06
  • 인공지능 기술은 인간의 삶을 혁신적으로 변화시키고 있으며, 전 산업 분야에 걸쳐 디지털트랜스포메이션화 하는 데 필수적으로 포함되는 기술 요소로 발전하고 있다. 최근 ChatGPT와 같은 생성 AI를 비롯하여 로봇, 자율주행 자동차, 의료, 금융, 통신, 미디어, 군사, 교육, 법률 등에 다양한 인공지능 기술이 적용되어 혁신적인 ICT 제품·서비스가 개발되어 보급되고 있다.
  • 소순주 ㈜코어소프트 대표이사(컴퓨터교육학 박사)/사진 제공=IAAE(국제인공지능윤리협회)
    ▲ 소순주 ㈜코어소프트 대표이사(컴퓨터교육학 박사)/사진 제공=IAAE(국제인공지능윤리협회)

    인공지능 발전과 함께 최근 가장 이슈화되고 있는 사회적 문제가 인공지능 윤리 문제이다. 인공지능 윤리적 문제로 수없이 많이 제기된 내용은 편향성, 인격권 침해, 사생활 침해, 신뢰성과 투명성 상실, 알고리즘 조작이나 책임 문제, 검증되지 않은 정보제공, 거짓 정보, 가치 정렬 불일치 등이 심각하게 대두되고 있다. 인공지능 윤리 문제를 해결하기 위해 세계 각국은 인공지능 윤리 원칙, 윤리 가이드, 개발 지침, 법·제도 제정을 위한 규율 시나리오 연구 등으로 활발하게 대응 방안을 모색하고 있다. 이러한 노력은 인공지능 기술의 안전성과 신뢰성을 높이고 사용자의 인격권과 사회적 안전 및 공정성 보호를 위해 중요한 역할을 한다.

    국내에서도 인공지능 윤리 문제에 대응하기 위하여 정부에서는 '신뢰할 수 있는 인공지능 실현 전략', '국가 인공지능 윤리기준', '인공지능 개발 안내서' 등을 발표하거나 제작하여 배포하고 있으며, IAAE(국제인공지능윤리협회)는 2019년부터 '인공지능 윤리 헌장'을 만들어 발표했다. 또한 카카오, 네이버, SKT 등 기업에서도 자체적으로 AI 준칙을 수립하였고, 최근 챗봇 서비스 '이루다'를 개발한 스캐터랩은 자사의 'AI 윤리 점검표'를 공개하여 인공지능 윤리 문제를 해결하기 위해 노력하고 있다.

    현실적으로 미래 사회는 인간과 인공지능이 상호작용하며 발전해 나가야 한다는 것을 누구도 부인하지 못할 것이다. 그러므로 인공지능 기술 발전과 함께 인공지능의 윤리 문제를 해결하기 위해서 인공지능 윤리 표준화가 선제적으로 만들어져야 한다.

    인공지능 기술의 세계적 수준에 비추어 아쉽게도 국내는 인공지능 원천기술을 발전시키기 위한 기반 기술과 자금, 인프라가 약한 수준에 있다. 따라서 국내 기업은 인공지능의 응용서비스(애플리케이션) 분야에 초점을 맞추어 인공지능 제품·서비스를 개발하는 것이 경쟁력을 확보할 방안이다. 인공지능 응용 서비스 분야로 비즈니스를 창출한다는 것은 인공지능 사용자, 이해관계자와 가장 밀접한 접점에 있다는 것을 의미하며, 이에 따라 인공지능 윤리 문제도 가장 밀접하게 작용한다. 이에 대한 대응책으로 국내에서 선제적으로 인공지능 윤리 표준을 개발하고, 국제기구에 윤리 표준을 제안 및 제정하기 위한 활동과 노력이 필요하다.

    인공지능 표준과 관련된 주요 국제기구는 ISO와 IEEE가 있으며, ISO의 인공지능 윤리 표준화 활동은 ISO/IEC JTC1/SC42에서 인공지능 윤리에 대한 개념 정의 수준에서 표준화가 진행되고 있다. IEEE SA에서는 P7000 시리즈를 통하여 인공지능 윤리 표준화 작업을 수행하고 있다. 이들 기구에서 수행하는 표준화 작업이 아직 인공지능 윤리에 대한 세부적인 윤리 측정지표나 검증항목을 개발하지 않은 상태에 있기 때문에 국내에서 신속하게 인공지능 윤리 측정지표 및 검증항목을 체계적으로 개발하여 표준화한다면 인공지능 윤리 분야에서 세계적인 경쟁력을 확보할 수 있을 것이다.

    국내의 인공지능 윤리와 관련된 표준화 활동은 국가기술표준원이 중심이 되어 진행되고 있으며, '인공지능 윤리 유즈케이스 템플릿 개발'과 '인공지능 윤리 가이드라인 개발' 등이 만들어지고 있다. 하지만 인공지능 윤리 원칙이 체계적으로 명확하게 구현되어 그 원칙에 바탕을 두고 개발되는 것은 아니기 때문에 아쉬움이 많다. 국내에서 인공지능 윤리 분야를 체계적으로 분류하여 연구를 진행하고 있는 논문도 조금씩 발표되고 있다. 2021년 발표된 '인공지능 윤리 원칙 분류 모형 및 구성요소'를 개발하여 인공지능 윤리 원칙 5개(투명성, 책무성, 공정성, 통제성, 안전성)와 각 원칙에 대한 구성요소 20개 항목을 정의한 연구는 인공지능 윤리 표준을 만드는 데 유용하게 활용될 수 있을 것이다. 정부 기관에서 개발한 인공지능 개발 안내서, 윤리 원칙, 인권 가이드라인, 관련 문헌, 산업계 의견 등을 바탕으로 인공지능 기업, 사용자, 윤리 전문가, 공학자, 법률가, 사회학자, 교육자 등 많은 이해관계자가 참여하여 인간이 신뢰할 수 있는 인공지능 윤리 표준을 만들어야 할 것이다. 또한 인공지능 윤리 표준을 기반으로 인공지능 윤리 시험·인증 기준을 마련하여 인공지능 제품·서비스 개발에 적용하게 되면 신뢰할 수 있는 인공지능 사회가 만들어질 수 있을 것이다.

    인공지능 윤리 표준화는 인공지능 원천기술에 뒤처져 있는 국내 인공지능 산업에 강력한 원동력으로 작용할 것이며, 국제 표준 기구에 제안 및 제정에 의하여 국가 경쟁력 향상과 인공지능 제품·서비스 수출에 크게 기여할 수 있을 것이다.

  • 소순주 ㈜코어소프트 대표이사/컴퓨터교육학 박사

최신뉴스