AI

교육부, ‘이루다 사태’ 막을 AI 윤리원칙 발표

  • 메타리즘
기사입력 2022.08.11 14:10
윤리적이고 안전한 AI 활용을 위해 10대 세부 원칙 제시
  • (사진제공: 셔터스톡)
    ▲ (사진제공: 셔터스톡)

    인공지능(AI)을 활용한 교육이 늘어나기 시작하면서 교육부가 개발자와 교육 당사자들이 함께 준수해야 할 '교육분야 인공지능 윤리원칙'을 발표했다.

    빠르게 발전하고 있는 AI 사업인 만큼 논란도 피할 수 없다. 지난해 윤리적으로 문제가 됐던 AI 챗봇 '이루다'처럼 예상치 못한 상황이 발생할 수 있어 AI가 지닌 잠재적 위험을 방지하기 위한 규범이 강조되고 있다.

    윤리원칙은 지난 1월 27일 시안 발표 이후 공청회, 전문가 간담회 등 다양한 의견 수렴을 거쳐 교육 분야에서 AI 활성화 시 부작용을 최소화하기 위한 규제 차원에서 탄생했다.

    내용은 '사람의 성장을 지원하는 인공지능'을 대원칙으로 삼으며 그 아래 10대 세부 원칙으로는 '인간 성장의 잠재성을 이끌어 낸다', '학습자의 주도성과 다양성을 보장한다', '교수자의 전문성을 존중한다' 등이 포함돼있다.

    교육부는 해당 원칙을 인공지능 윤리교육과 교원의 역량 강화 연수 자료 등에 사용하고, 관련 연구 촉진과 교육기술 기업과의 가이드라인으로 활용하는 식으로 구체적으로 실천할 계획이다. 또한 인공지능 기술의 발전과 교육현장에서의 활용 실태 등을 고려해 원칙의 타당성을 주기적으로 검토할 계획이다.

    오석환 교육부 기획조정실장은 "인공지능이 미래 세대의 인지·정서에 미치는 영향이 클 수 있는 만큼, 교육 분야 인공지능의 개발과 안전한 활용이 균형을 이룰 수 있도록 교육계·산업계와 지속적으로 소통하고 협력하겠다"고 전했다.

  • 메타리즘

최신뉴스