ChatPaper.aiChatPaper

생성 모델 인공지능에 바이러스 감염하기

Infecting Generative AI With Viruses

January 9, 2025
저자: David Noever, Forrest McKee
cs.AI

초록

본 연구는 Vision-Large Language Model (VLM/LLM)의 보안 경계를 테스트하기 위한 혁신적인 접근 방식을 시연합니다. JPEG 이미지 내에 포함된 EICAR 테스트 파일을 활용합니다. 우리는 OpenAI GPT-4o, Microsoft Copilot, Google Gemini 1.5 Pro, 그리고 Anthropic Claude 3.5 Sonnet을 포함한 여러 LLM 플랫폼에서 네 가지 다른 프로토콜을 성공적으로 실행했습니다. 실험 결과, EICAR 시그니처가 포함된 수정된 JPEG가 LLM 가상 작업 영역 내에서 업로드, 조작, 그리고 잠재적으로 실행될 수 있음을 검증했습니다. 주요 결과로는 다음이 포함됩니다: 1) 이미지 메타데이터에 EICAR 문자열을 감추는 일관된 능력, 2) Python 기반 조작을 통한 LLM 환경 내 테스트 파일 추출의 성공, 그리고 3) base64 인코딩과 문자열 반전을 포함한 다양한 난독화 기술의 시연. 이 연구는 Microsoft Research의 "침투 테스트 참여 규칙" 프레임워크를 확장하여 클라우드 기반 생성적 AI와 LLM의 보안 경계를 평가하며, 특히 컨테이너화된 환경 내 파일 처리 및 실행 능력에 초점을 맞춥니다.
English
This study demonstrates a novel approach to testing the security boundaries of Vision-Large Language Model (VLM/ LLM) using the EICAR test file embedded within JPEG images. We successfully executed four distinct protocols across multiple LLM platforms, including OpenAI GPT-4o, Microsoft Copilot, Google Gemini 1.5 Pro, and Anthropic Claude 3.5 Sonnet. The experiments validated that a modified JPEG containing the EICAR signature could be uploaded, manipulated, and potentially executed within LLM virtual workspaces. Key findings include: 1) consistent ability to mask the EICAR string in image metadata without detection, 2) successful extraction of the test file using Python-based manipulation within LLM environments, and 3) demonstration of multiple obfuscation techniques including base64 encoding and string reversal. This research extends Microsoft Research's "Penetration Testing Rules of Engagement" framework to evaluate cloud-based generative AI and LLM security boundaries, particularly focusing on file handling and execution capabilities within containerized environments.

Summary

AI-Generated Summary

PDF139January 13, 2025