수직 연합 학습에서 데이터 보호를 위해 단순한 변환만으로 충분합니다.
Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning
December 16, 2024
저자: Andrei Semenov, Philip Zmushko, Alexander Pichugin, Aleksandr Beznosikov
cs.AI
초록
수직 연합 학습(VFL)은 개인 정보 보호를 유지하면서 딥러닝 모델의 협력적 학습을 가능하게 하는 것을 목표로 합니다. 그러나 VFL 절차에는 여전히 악의적인 당사자에 의해 공격당할 수 있는 구성 요소가 있습니다. 저희 연구에서는 입력 데이터 침해를 향한 일반적인 위험인 특징 재구성 공격을 고려합니다. 우리는 이론적으로 특징 재구성 공격이 데이터에 대한 사전 분포의 지식 없이는 성공할 수 없다고 주장합니다. 결과적으로 심플한 모델 아키텍처 변환조차도 VFL 중 입력 데이터의 보호에 상당한 영향을 미칠 수 있음을 보여줍니다. 실험 결과로 이러한 발견을 확인하면서 MLP 기반 모델이 최신의 특징 재구성 공격에 저항할 수 있음을 보여줍니다.
English
Vertical Federated Learning (VFL) aims to enable collaborative training of
deep learning models while maintaining privacy protection. However, the VFL
procedure still has components that are vulnerable to attacks by malicious
parties. In our work, we consider feature reconstruction attacks, a common risk
targeting input data compromise. We theoretically claim that feature
reconstruction attacks cannot succeed without knowledge of the prior
distribution on data. Consequently, we demonstrate that even simple model
architecture transformations can significantly impact the protection of input
data during VFL. Confirming these findings with experimental results, we show
that MLP-based models are resistant to state-of-the-art feature reconstruction
attacks.