Vertrouwde machine learning modellen ontsluiten privé inferentie voor problemen die momenteel onhaalbaar zijn met cryptografie.
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Auteurs: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Samenvatting
We hebben vaak interactie met onbetrouwbare partijen. Prioritering van privacy kan de effectiviteit van deze interacties beperken, aangezien het bereiken van bepaalde doelen het delen van privégegevens vereist. Traditioneel is het aanpakken van deze uitdaging ofwel door het zoeken van vertrouwde tussenpersonen of door het construeren van cryptografische protocollen die beperken hoeveel data er wordt onthuld, zoals multi-party berekeningen of zero-knowledge bewijzen. Hoewel er aanzienlijke vooruitgang is geboekt in het schalen van cryptografische benaderingen, blijven ze beperkt wat betreft de omvang en complexiteit van toepassingen waarvoor ze kunnen worden gebruikt. In dit artikel betogen we dat capabele machine learning modellen de rol van een vertrouwde derde partij kunnen vervullen, waardoor veilige berekeningen mogelijk worden voor toepassingen die eerder onhaalbaar waren. In het bijzonder beschrijven we Vertrouwde Capabele Model Omgevingen (TCME's) als een alternatieve benadering voor het schalen van veilige berekeningen, waar capabele machine learning model(len) interacteren onder invoer/uitvoer beperkingen, met expliciete informatie stroom controle en expliciete staatloosheid. Deze benadering streeft naar een balans tussen privacy en computationele efficiëntie, waardoor privé inferentie mogelijk is waar klassieke cryptografische oplossingen momenteel onhaalbaar zijn. We beschrijven een aantal gebruiksscenario's die mogelijk worden gemaakt door TCME, en tonen aan dat zelfs enkele eenvoudige klassieke cryptografische problemen al kunnen worden opgelost met TCME. Tot slot schetsen we de huidige beperkingen en bespreken we de weg voorwaarts bij de implementatie ervan.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary