인더스트리

네이버, AI 안전 실천… ‘사람을 위한 AI’ 만든다

기사입력 2024.06.17 19:58
AI 안전성 실천 체계 ‘ASF(AI Safety Framework)’ 발표
AI 개발과 배포 전 과정에서 발생하는 잠재적 위험 대응 체계
  • 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계인 ASF를 발표했다. /네이버
    ▲ 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계인 ASF를 발표했다. /네이버

    네이버가 안전한 인공지능(AI) 공급과 활용을 실제 행동으로 옮겼다. 2021년 ‘네이버 AI 윤리 준칙’, 2022년 ‘AI 윤리 자문 프로세스’에 이어 한층 구체화한 AI 안전성 실천 체계를 공개했다.

    ◇ AI 위험, 네이버 ASF로 막는다

    네이버는 17일 자체 기술 채널인 ‘채널 테크’를 통해 ‘네이버 ASF(AI Safety Framework)’를 발표했다. 네이버가 AI 시스템을 개발하고 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식·평가·관리하기 위한 대응 체계다.

    네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의했다. 이 위험이 발생할 경우 올바르게 대응하는 방법을 설계한 점이 특징이다. 먼저 네이버는 인간이 AI 시스템에 영향을 미치지 못하게 되는 ‘통제력 상실 위험’을 완화하기 위해, ‘AI 위험 평가 스케일’을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 현존 최고 성능의 AI 시스템을 ‘프런티어(frontier) AI’로 정의하고, 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다. 또한 시스템의 능력이 기존보다 6배 이상 급격히 증가할 시에는 그 시점에 추가 평가가 이뤄진다.

    네이버 ASF가 정의하는 AI 시스템의 또 다른 잠재적 위험인 ‘악용’의 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다. 예를 들어, 생화학 물질 개발과 같이 특수한 목적으로 사용되는 AI 시스템은 특별한 자격이 있는 사용자에게만 제공해 위험을 완화하고, 사용 목적과 관계 없이 안전 조치의 필요성이 높은 AI 시스템이라면 추가적인 기술적·정책적 안전 조치를 통해 위험이 완화될 때까지는 배포하지 않는다.

    하정우 네이버 퓨처 AI 센터장(네이버클라우드 AI이노베이션 센터장)은 “네이버는 국내외 유수 연구기관 및 전문가들과 적극적으로 협력해 AI 안전성 관련 선행 연구와 정책 분야에서 다양한 성과를 거두며 안전하고 지속가능한 AI 생태계를 만드는 데 앞장서왔다”며 “최근에는 UN의 AI 안전성 보고서 작성에 기술 자문을 제공하고, 다수 빅테크들이 참여하는 개방형 컨소시엄 ‘MLCommons’에서 AI 안전 벤치마크 구축 작업에 기여하는 등 글로벌 커뮤니티와의 협업을 늘려가고 있다”고 말했다. 이어 “네이버 ASF는 생성형 AI 시대에 네이버가 다시 한 번 선제적으로 수립한 안전성 검증 프로토콜로, 이러한 앞선 경험을 글로벌 커뮤니티에도 공유하며 AI 안전성 분야 리더십을 확보해나갈 것”이라고 강조했다.

  • 네이버는 AI 시스템 위험이 충분히 완화댔다고 판단되는 경우에만 AI 시스템을 배포하기로 했다. /네이버
    ▲ 네이버는 AI 시스템 위험이 충분히 완화댔다고 판단되는 경우에만 AI 시스템을 배포하기로 했다. /네이버

    ◇ 소버린 AI로 글로벌 AI 안전성 강화

    네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 한국 외 다른 지역의 정부 및 기업과 소버린(Sovereign) AI를 공동 개발하며 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크(benchmark)도 문화권의 특성을 반영해 고도화할 예정이다.

    실제로 네이버는 한국어를 기준으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌로 확장해나간 경험이 있다. 지난해 세계 최고 권위 자연어처리 학회 중 하나인 ‘ACL 2023’에서, 네이버는 종교, 도덕 등 사회적으로 첨예한 이슈에 대해 AI가 편향적으로 발화하는 문제를 완화하기 위한 새로운 대량의 한국어 데이터셋을 제안한 연구를 발표했다. 또한 이 연구에서는 문화권에 따라 사회적으로 민감한 문제가 달라질 수 있다는 점을 고려해 같은 종류의 데이터셋을 다른 언어 기반으로도 구축할 수 있도록 데이터 설계 프로토콜을 함께 제안했고, 글로벌 AI 커뮤니티에 기여했다는 평가와 함께 학계의 주목을 받았다.

    송대섭 네이버 Agenda Research 리더는 “네이버는 AI 개발에 있어서 ‘사람을 위한 AI’라는 보편적 가치와 ‘다양성’을 조화롭게 고려할 필요가 있다고 믿는다”며 “AI 안전성도 글로벌 움직임에 발맞추는 한편 각 지역의 사회기술적 맥락(socio-technical context)을 고려해 접근하는 것이 중요하다고 생각한다”고 말했다. 이어 “이러한 관점이 네이버 ASF에도 담겨 있으며, 향후 AI 기술 발전에 따른 AI 안전성 관련 글로벌 논의 흐름에 맞춰 네이버 ASF를 지속적으로 개선할 것”이라고 덧붙였다.

    최수연 네이버 대표는 “네이버는 한국에서 ‘하이퍼클로바X’라는 소버린 AI를 개발한 경험을 통해, 문화적·지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다”면서 “향후 글로벌 시장에서도 소버린 AI를 개발하면서 네이버 ASF를 지속적으로 개선해나갈 계획”이라고 밝혔다. 또 “이를 통해 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 네이버가 적극적으로 기여할 것”이라고 강조했다.

최신뉴스