I modelli di apprendimento automatico affidabili consentono l'accesso a inferenze private per problemi attualmente non praticabili con la crittografia.
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Autori: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Abstract
Spesso interagiamo con parti non fidate. La priorità della privacy può limitare l'efficacia di tali interazioni, poiché il raggiungimento di determinati obiettivi richiede la condivisione di dati privati. Tradizionalmente, affrontare questa sfida ha comportato la ricerca di intermediari fidati o la costruzione di protocolli crittografici che limitano la quantità di dati rivelati, come le computazioni multi-party o le dimostrazioni a conoscenza zero. Nonostante siano stati compiuti progressi significativi nel ridimensionamento degli approcci crittografici, rimangono limitati in termini di dimensioni e complessità delle applicazioni per cui possono essere utilizzati. In questo articolo, sosteniamo che modelli di machine learning capaci possano svolgere il ruolo di terza parte fidata, consentendo così computazioni sicure per applicazioni che in precedenza erano impraticabili. In particolare, descriviamo gli Ambienti di Modelli Capacità Affidabili (TCME) come un approccio alternativo per il ridimensionamento delle computazioni sicure, in cui uno o più modelli di machine learning capaci interagiscono sotto vincoli di input/output, con controllo esplicito del flusso di informazioni e stato di esplicita assenza. Questo approccio mira a trovare un equilibrio tra privacy ed efficienza computazionale, consentendo inferenze private dove le soluzioni crittografiche classiche sono attualmente impraticabili. Descriviamo diversi casi d'uso resi possibili da TCME e dimostriamo che anche alcuni semplici problemi crittografici classici possono già essere risolti con TCME. Infine, delineiamo le attuali limitazioni e discutiamo il percorso da seguire per implementarle.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary