IT/과학
"벽 너머서 소형안테나 하나로" 해킹 없이 AI 설계 탈취…새 보안 위협 부상
뉴스보이
2026.03.31. 10:59
뉴스보이
2026.03.31. 10:59

간단 요약
간단 요약
KAIST 연구팀이 개발한 '모델스파이'는 GPU 전자기 신호를 포착해 AI 모델 구조를 탈취합니다.
벽 너머 6m 거리에서 97.6% 정확도로 가능하며, 새로운 사이버 물리 보안 체계가 필요합니다.
이 기사는 6개 언론사의 보도를 교차 검증하여 작성되었습니다.
이 기사는 6개 언론사의 보도를 교차 검증하여 작성되었습니다.
KAIST 전산학부 한준 교수 연구팀이 소형 안테나만으로 원거리에서 인공지능(AI) 모델 구조를 탈취할 수 있는 공격 시스템 '모델스파이'를 개발했습니다. 이 기술은 벽 너머 최대 6m 거리에서 AI 모델의 핵심 구조를 97.6%의 정확도로 파악했습니다. 이는 기존 해킹 방식과 다른 새로운 보안 위협으로 평가됩니다.
모델스파이는 AI 연산을 담당하는 그래픽 처리 장치(GPU)에서 발생하는 미세한 전자기 신호를 포착하여 모델의 층 구성과 세부 설정값을 복원하는 방식입니다. 연구팀은 싱가포르국립대, 중국 저장대와 공동 연구를 통해 이 기술을 개발했습니다. 연구 결과는 컴퓨터 보안 분야 학술대회인 'NDSS 2026'에서 발표되었으며 최우수 논문상을 받았습니다.
연구팀은 기술 악용 시 기업의 핵심 AI 자산이 유출될 수 있다고 보고, 전자기파 교란이나 연산 난독화 등 대응 기술도 함께 제시했습니다. 한준 교수는 AI 시스템이 물리적 환경에서도 새로운 공격에 노출될 수 있음을 입증했다고 밝혔습니다. 또한, 자율주행이나 국가 기반 시설과 같은 중요한 AI 인프라를 보호하기 위해 하드웨어와 소프트웨어를 아우르는 '사이버 물리 보안' 체계 구축이 중요하다고 강조했습니다.
이 콘텐츠는 뉴스보이의 AI 저널리즘 엔진으로 생성 되었으며, 중립성과 사실성을 준수합니다. AI가 작성한 초안을 바탕으로 뉴스보이 에디터들이 최종검수하였습니다. (오류신고 : support@curved-road.com)
• 이 콘텐츠는 뉴스보이의 AI 저널리즘 엔진으로 생성 되었으며, 중립성과 사실성을 준수합니다.
• AI가 작성한 초안을 바탕으로 뉴스보이 에디터들이 최종검수하였습니다. (오류신고 : support@curved-road.com)