신뢰 구축: AI의 보안, 안전 및 투명성의 기초
Building Trust: Foundations of Security, Safety and Transparency in AI
November 19, 2024
저자: Huzaifa Sidhpurwala, Garth Mollett, Emily Fox, Mark Bestavros, Huamin Chen
cs.AI
초록
본 논문은 공개적으로 이용 가능한 AI 모델의 급속히 진화하는 생태계와 그것이 보안 및 안전 환경에 미칠 잠재적 영향을 탐구합니다. AI 모델이 점차 보편화되면서, 그들의 잠재적 위험과 취약점을 이해하는 것이 중요합니다. 우리는 현재의 보안 및 안전 시나리오를 검토하면서 추적 문제, 복구, 그리고 AI 모델 수명주기와 소유권 프로세스의 명백한 부재 등의 도전에 주목합니다. 모델 개발자와 최종 사용자 모두의 보안과 안전을 강화하기 위한 포괄적인 전략을 제안합니다. 본 논문은 AI 모델의 개발 및 운영에서 더 표준화된 보안, 안전, 그리고 투명성을 위한 기초적인 요소들을 제공하기 위한 것으로, 그 주변에서 형성되고 있는 더 큰 개방적인 생태계와 커뮤니티에 대해 다룹니다.
English
This paper explores the rapidly evolving ecosystem of publicly available AI
models, and their potential implications on the security and safety landscape.
As AI models become increasingly prevalent, understanding their potential risks
and vulnerabilities is crucial. We review the current security and safety
scenarios while highlighting challenges such as tracking issues, remediation,
and the apparent absence of AI model lifecycle and ownership processes.
Comprehensive strategies to enhance security and safety for both model
developers and end-users are proposed. This paper aims to provide some of the
foundational pieces for more standardized security, safety, and transparency in
the development and operation of AI models and the larger open ecosystems and
communities forming around them.Summary
AI-Generated Summary