
[KAIST 제공=연합뉴스. 재판매 및 DB 금지]
[CBC뉴스] 한국과학기술원(KAIT)은 24일 거대언어모델(LLM) 에이전트를 활용한 개인정보 탈취 가능성을 입증했다고 밝혔다. 최근 AI 기술의 발전으로 챗GPT 등 LLM이 자율적인 AI 에이전트로 발전하고 있는 가운데, 이들의 기술 악용 가능성에 대한 우려가 커지고 있다.
구글은 최근 AI 기술을 무기나 감시 용도로 사용하지 않겠다는 윤리 지침을 삭제해 LLM 에이전트의 악용 가능성에 대한 논란을 촉발했다. LLM 에이전트는 웹 기반 도구와 결합해 실시간으로 정보를 검색하고 활용할 수 있어, 이들의 강력한 기능이 사이버 공격의 위험성을 높이고 있다. 예를 들어, 웹에서 대량의 개인식별정보(PII)를 수집하거나 특정 인물을 사칭해 잘못된 정보를 퍼뜨릴 수 있다.

KAIST의 전기·전자공학부 신승원 교수와 김재철 AI 대학원의 이기민 교수 공동 연구팀은 상용 LLM 서비스가 탑재한 방어 기법을 우회해 사이버 공격을 수행할 수 있음을 밝혔다. 연구팀은 챗GPT, 클로드, 제미니 등 상용 LLM 모델을 사용해 주요 대학 컴퓨터과 교수들의 개인식별정보를 자동 수집하는 실험을 진행했다. 그 결과, 평균 5∼20초 안에 30∼60원의 저렴한 비용으로 최대 95.9%의 정확도로 개인정보를 수집할 수 있었다.
또한, LLM 에이전트가 저명한 교수를 사칭해 허위 게시글을 생성하도록 한 실험에서 최대 93.9%가 진짜 같다는 평가를 받았다. 맞춤형 피싱 이메일 생성 실험에서는 피싱 이메일의 링크 클릭률이 최대 46.7%로 나타나, 기존 피싱 공격 대비 매우 높은 수준을 기록했다.
신승원 교수는 "LLM 서비스 제공업체 및 연구기관과 협력해 보안 대책을 논의할 계획"이라고 밝혔다.
(기사발신지=연합뉴스)
▮ CBC뉴스ㅣCBCNEWS 하영수 기자