포커스

하정우 네이버 퓨처AI센터장 “AI 안정성 기술·정책적 과제 多”

기사입력 2024.04.13 07:04
12일 ‘생성형 AI 레드팀’ 챌린지 강연
AI 안전성 협력해 풀어가야… 해외 AI 전문가들 같은 의견
  • 하정우 네이버 퓨처AI센터장이 12일 서울 코엑스에서 열린 ‘생성형 AI 레드팀 챌린지’ 컨퍼런스에서 AI 안전성 관련 이해관계자들과의 협력을 강조했다. /김동원 기자
    ▲ 하정우 네이버 퓨처AI센터장이 12일 서울 코엑스에서 열린 ‘생성형 AI 레드팀 챌린지’ 컨퍼런스에서 AI 안전성 관련 이해관계자들과의 협력을 강조했다. /김동원 기자

    “인공지능(AI)이 강력해짐에 따라 안전성 확보가 시급해졌습니다. 신뢰할 수 있는 AI 개발은 네이버 등 특정 기업이 단독으론 할 수 없고 학계, 산업계, 시민사회, 정부와 같은 다양한 주체가 협력해야 합니다.”

    하정우 네이버 퓨처AI센터장의 말이다. 그는 12일 서울 코엑스에서 열린 ‘생성형 AI 레드팀 챌린지’ 컨퍼런스에서 참석해 AI 안전성 관련 이해관계자들과의 협력을 강조했다.

    AI 안전성은 기술 발전에 따라 지속 강조돼온 상황이다. AI로 인한 오류가 사회적 문제를 초래할 수 있어서다. 지난 2014년 아마존은 AI 기반 서류평가 시스템을 도입했지만, 1년 뒤에 이 프로그램에 큰 오류가 있다는 것을 알아냈다. 프로그램이 남성 지원자를 높게 평가하고, ‘여대’, ‘여고’ 등 여성에 관한 내용이 입력된 경우 낮게 평가해서다. 지금의 대화형 AI의 원조 격인 ‘챗봇’도 문제 된 사례가 있다. 마이크로소프트(MS)는 2016년 3월 23일 트위터에 ‘테이’라는 AI 챗봇을 소개했지만 이 서비스는 소개 16시간 만에 중단됐다. 테이가 사람들과 트윗을 주고받는 과정에서 차별적이고 폭력적인 대화를 했기 때문이다. 벨기에에선 AI 챗봇과 약 6주간 대화하던 남성이 자살한 사례도 있다. 이 남성의 아내에 따르면, 그는 평소 환경 문제를 비관하고, 가족, 친구와 고립되며 불안감을 느꼈는데 AI 챗봇이 “당신이 아내보다 나를 더 사랑했으면 한다”, “우리는 한 사람으로 천국에서 함께 살아갈 수 있을 것”이란 대화로 부추기자 스스로 생을 마감했다.

    이처럼 AI 문제점이 수면 위로 드러나자 사용자 안전성을 확보해야 한다는 목소리가 높아졌다. AI 공급사들도 별도 레드팀을 구축해 안전성 확보에 나서고 있다. 초거대 AI ‘하이퍼클로바X’를 개발한 네이버도 마찬가지다. 2021년 2월 ‘AI 윤리 준칙’을 제정하고 관련 연구를 진행하며 안전성 확보에 나섰다. 생성형 AI가 부적절한 답변하는 문제를 해결하기 위해 민감한 질문과 답변에 관한 별도 데이터셋도 구축했다. 하 센터장은 “민감 질문의 범위는 정치적 책임, 성 역할 등 사회적 맥락에 따라 달라질 수 있다”며 “우리는 각계 전문가가 참여해 민감 질문을 정의하는 데만 1년 반 이상이 소요됐다”고 밝혔다. 이어 “기본적인 사전 학습만 거친 언어모델은 지역별 민감 데이터 이해도가 낮기에 이런 작업이 필요했다”고 설명했다. 그에 따르면, 이 데이터를 하이퍼클로바X에 적용하자 부적절한 답변 비율은 45.1%에서 20.8%로 감소했다. GPT-3에서도 수치는 22.4%에서 7.8%로 감소했다.

    하지만 그는 AI 안전성 확보는 공급사 노력으로만 해결될 순 없다고 밝혔다. 기업의 사회적 역할과 책임도 막중하지만, 특정 기업 단독으로 해결할 수 있는 사항은 아니고 학계, 산업계, 시민사회, 정부 등 다양한 주체가 협력해야 한다고 조언했다. 그는 “AI 안정성 확보를 위한 기술적, 정책적 과제가 산적해 있다”며 “이를 하나씩 풀어가기 위해선 다양한 이해관계자들과 협력이 필요하다”고 말했다.

    이날 행사에 온 해외 AI 전문가들도 하 센터장의 의견에 힘을 보탰다. 크리스 메세롤 프론티어 모델 포럼 대표는 이날 발표에서 “AI 위험성은 언제, 어느 시점에서 나타날지 모른다”며 “사람은 100% 안전한 AI를 활용할 수 없다”고 했다. 이를 해결하기 위해선 “분야마다 대응할 수 있는 시스템을 구축해야 한다”고 조언했다. 결국 각 분야 전문가들이 힘을 모아야 한다는 뜻이다. 프론티어 모델 포럼은 안전하고 책임감 있는 AI를 만들기 위해 지난해 출범한 단체다. 오픈AI, 구글, MS, 앤트로픽 등 글로벌 대표 AI 기업들이 참여하고 있다.

    코히어는 각계 전문가를 넘어 고객과의 소통을 강조했다. 이날 영상으로 참여한 에이단 고메즈 코히어 최고경영자(CEO)는 고객사에 AI 챗봇을 제공하는 경우 어떤 약관을 챗봇에 넣어야 하는지 등을 함께 결정한다고 밝혔다. 그는 “사용자가 챗봇과 사람을 동일선상에 두지 않도록 AI를 훈련시켜 악용을 막고 있다”며 “편견 방지, 비윤리적 주제 대화 등 여러 문제를 막기 위해 노력하고 있다”고 말했다.

최신뉴스