셀렉트스타, '문화 맞춤 AI 안전성 검증' 글로벌 학회 채택

CAGE: 문화 맞춤형 레드티밍 벤치마크 생성 프레임워크 논문에 참여한 김민우 팀장(오른쪽) 등 셀렉트스타 연구팀. ⓒ셀렉트스타
CAGE: 문화 맞춤형 레드티밍 벤치마크 생성 프레임워크 논문에 참여한 김민우 팀장(오른쪽) 등 셀렉트스타 연구팀. ⓒ셀렉트스타

셀렉트스타가 자체 개발한 인공지능(AI) 안전성 검증 기술이 글로벌 학회에서 인정받았다.

셀렉트스타 AI 세이프팀의 연구 논문 'CAGE: 문화 맞춤형 레드티밍 벤치마크 생성 프레임워크'가 4월 브라질에서 열리는 'ICLR 2026' 메인 컨퍼런스에 채택됐다.

ICLR은 AI 분야 가장 영향력 있는 국제 학회 중 하나로 구글 스칼라 기준 AI·머신러닝 분야 최상위권 학회로 꼽힌다. 올해 1만9000여건 논문 중 상위 약 28%만 채택된 가운데 셀렉트스타 논문은 메인 트랙에 선정됐다. 연구 기획부터 논문 게재까지 외부 도움 없이 셀렉트스타 자체적으로 이뤄낸 성과다.

이번 논문 핵심 기술은 각 나라 문화와 법적 맥락을 반영해 AI 안전성을 검증하는 레드티밍 데이터를 자동으로 생성하는 프레임워크다. AI가 위험한 질문을 받았을 때 안전하게 대응하는지 점검하는 시험문제를 언어·문화권별 자동 생성하는 기술이다.

셀렉트스타 연구팀은 '시맨틱 몰드'라는 개념을 제안, 국가 문화적 특성을 반영한 현지화된 공격 질문을 생성했다. CAGE로 생성된 공격 시나리오는 사람이 직접 만든 것과 유사한 데다 AI 모델 방어를 뚫고 잠재된 위험을 찾아내는 '공격 성공률' 측면에서 성과도 냈다.

논문에는 한국 상황에 적용해 만든 한국형 안전성 벤치마크 '코르셋(KoRSET)'이 포함됐다. KoRSET은 단순 번역으로 만든 기존 데이터셋보다 AI 모델의 취약점을 훨씬 더 효과적으로 찾아냈다.

김민우 셀렉트스타 AI 세이프티팀장은 “이번 ICLR 채택은 셀렉트스타가 단순 데이터 구축 기업을 넘어 독보적 원천기술을 보유한 AI 기술 기업임을 입증한 사례”라며 “CAGE 기술은 이미 대기업의 AI 프로젝트에 적용돼 모델의 취약점 점검과 운영 효율 개선에 활용되고 있다”고 말했다.

박종진 기자 truth@etnews.com