디지털헬스

범용 대규모언어모델, 의료 분야 적용 시 개인정보유출 위험 81%

기사입력 2025.01.08 10:10
  • 최근 의료 분야에서도 인공지능(AI)의 중요성이 확대되고 있지만, 공개된 대규모 언어모델(Large Language Model, LLM)을 적용할 경우 개인정보유출 위험이 매우 높은 것으로 나타났다.

    서울아산병원 심장내과 김영학 교수와 아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 대규모언어모델을 의료 분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다.

  • (왼쪽부터)서울아산병원 심장내과 김영학 교수, 아산생명과학연구원 빅데이터연구센터 전태준 박사 /사진 제공=서울아산병원
    ▲ (왼쪽부터)서울아산병원 심장내과 김영학 교수, 아산생명과학연구원 빅데이터연구센터 전태준 박사 /사진 제공=서울아산병원

    대규모언어모델은 수십억 개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심 기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다.

    연구팀은 2017년 1월부터 2021년 12월까지 환자 2만 6,434명의 의무기록을 활용해 대규모 언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다.

    먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다.

    또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다.

    구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다.

    이번 연구 결과는 임상의학 분야 권위지로 꼽히는 NEJM(New England Journal of Medicine)이 인공지능 분야만을 특화해 출간한 자매지인 ‘NEJM AI’에 최근 게재됐다.

    김영학 서울아산병원 심장내과 교수는 “의료 분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다. 민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

    한편, 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행되었다.

최신뉴스