생성형 AI 플랫폼에 시큐리티 가드레일 적용
비윤리적·정치편향적인 내용 답변 사전 차단

에스투더블유(S2W, 대표 서상덕)가 생성형 인공지능(AI) 활용에 안전성 확보에 나섰다. ‘SAIP(S2W AI Platform)’에 시큐리티 가드레일(Security Guardrail)을 구현, 안정적인 데이터 운용 환경을 제공한다고 19일 밝혔다.

SAIP는 S2W가 보유한 AI 기술과 데이터 처리 노하우를 바탕으로, 고객의 보안 요구 수준에 맞춰 제로 트러스트(Zero Trust) 기반 설계로 구현한 기업 맞춤 생성형 AI 플랫폼이다. 해당 기업의 도메인에 특화된 대형언어모델(LLM) 및 지식그래프 기술을 접목하고, 각 산업의 특성과 기업의 사용 목적을 고려해 사용자의 질문에 가장 근접한 사실 기반 답변과 데이터를 제공한다. 

LLM은 조직 내 데이터 운용의 효율성과 생산성을 획기적으로 향상시키고 있지만, 동시에 데이터 유출과 악의적 조작 등 안전성 문제도 발생시키고 있다. 생성형 AI 도입으로 인해 발생하는 보안상 문제점을 효과적으로 방어할 수 있는 기술에 대한 수요가 빠르게 느는 이유다. S2W는 SAIP에 시큐리티 가드레일을 적용해 기업 내부 데이터를 보호하고 보안 위협 대응을 차별화한다고 밝혔다.

시큐리티 가드레일은 LLM의 개발 및 배포, 운영 과정에서 보안성과 신뢰성을 확보하기 위한 일련의 방어 체계다. S2W는 이를 플랫폼 안에 구현해 AI 모델 학습에 사용되는 데이터 세트를 검토하고 민감 정보를 제거하는 검증 및 정제의 과정을 거쳐, 정보 유출 위험을 최소화하고 데이터 프라이버시를 강화하고 있다. 또한, LLM 취약점을 공략해 AI 모델이 주어진 프롬프트에 대해 잘못된 방식으로 반응하도록 유도하는 ‘프롬프트 인젝션(Prompt Injection)’을 방지하는 역할도 수행한다. 

모델의 응답을 사전 정의된 규칙이나 필터링 시스템을 통해 검증함으로써, 범죄와 관련되거나 비윤리적·정치편향적인 내용이 답변에 포함되지 않게 한다. AI 구축 후에도 내부의 취약점 분석 전문 조직에 의해 작성된 분석 보고서를 정기적으로 제공함으로써, 플랫폼의 안전성을 유지하고 강화할 수 있도록 지원하고 있다. 

서상덕 S2W 대표는 “S2W는 최근 전 세계적인 화두로 떠오르고 있는 AI 안전성과 신뢰성에 관한 문제를 오랫동안 주목해왔다”며 “시큐리티 가드레일을 포함해 조직 내부 데이터의 안정적인 운용을 가능케 하는 다양한 기술들을 지속적으로 개발하고 고도화하며, 고객들이 데이터와 AI의 활용 가치 및 유익성을 극대화할 수 있는 안전한 환경을 구축해 나갈 것”이라고 밝혔다.

홈으로 이동 상단으로 이동