Modelos de Aprendizado de Máquina Confiáveis Desbloqueiam Inferência Privada para Problemas Atualmente Impraticáveis com Criptografia
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Autores: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Resumo
Frequentemente interagimos com partes não confiáveis. A priorização da privacidade pode limitar a eficácia dessas interações, uma vez que alcançar certos objetivos requer o compartilhamento de dados privados. Tradicionalmente, lidar com esse desafio envolveu buscar intermediários confiáveis ou construir protocolos criptográficos que restrinjam a quantidade de dados revelados, como computações multipartes ou provas de conhecimento zero. Embora tenham sido feitos avanços significativos na escalabilidade de abordagens criptográficas, elas permanecem limitadas em termos do tamanho e complexidade das aplicações para as quais podem ser usadas. Neste artigo, argumentamos que modelos de aprendizado de máquina capazes podem desempenhar o papel de terceira parte confiável, possibilitando assim computações seguras para aplicações que anteriormente eram inviáveis. Em particular, descrevemos Ambientes de Modelo Capaz Confiável (TCMEs) como uma abordagem alternativa para escalar computação segura, onde modelo(s) de aprendizado de máquina capaz interagem sob restrições de entrada/saída, com controle explícito de fluxo de informações e estado de explicitamente sem memória. Esta abordagem visa alcançar um equilíbrio entre privacidade e eficiência computacional, possibilitando inferência privada onde soluções criptográficas clássicas são atualmente inviáveis. Descrevemos vários casos de uso habilitados pelo TCME e demonstramos que até mesmo alguns problemas criptográficos clássicos simples já podem ser resolvidos com o TCME. Por fim, delineamos as limitações atuais e discutimos o caminho a seguir para implementá-las.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary