Доверенные модели машинного обучения обеспечивают доступ к конфиденциальному выводу для задач, в настоящее время недостижимых с помощью криптографии.
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Авторы: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Аннотация
Мы часто взаимодействуем с ненадежными сторонами. Приоритизация конфиденциальности может ограничить эффективность этих взаимодействий, поскольку достижение определенных целей требует обмена чувствительными данными. Традиционно решение этой проблемы включало либо поиск доверенных посредников, либо создание криптографических протоколов, ограничивающих объем раскрываемых данных, таких как многопартийные вычисления или доказательства нулевого разглашения. Несмотря на значительные успехи в масштабировании криптографических подходов, они остаются ограниченными по размеру и сложности приложений, для которых их можно использовать. В данной статье мы утверждаем, что способные модели машинного обучения могут выполнять роль доверенного третьего лица, обеспечивая тем самым безопасные вычисления для приложений, которые ранее были невозможны. В частности, мы описываем Среды Доверенных Способных Моделей (TCME) как альтернативный подход для масштабирования безопасных вычислений, где способные модели машинного обучения взаимодействуют в рамках ограничений ввода/вывода, с явным управлением потоком информации и явным отсутствием состояния. Этот подход нацелен на достижение баланса между конфиденциальностью и вычислительной эффективностью, обеспечивая конфиденциальное вывод, где классические криптографические решения в настоящее время невозможны. Мы описываем ряд примеров использования, которые становятся возможными благодаря TCME, и показываем, что даже некоторые простые классические криптографические задачи уже могут быть решены с помощью TCME. Наконец, мы обозначаем текущие ограничения и обсуждаем дальнейший путь в их реализации.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary