Vertrauenswürdige maschinelle Lernmodelle ermöglichen private Inferenz für Probleme, die derzeit mit Kryptographie nicht realisierbar sind.
Trusted Machine Learning Models Unlock Private Inference for Problems Currently Infeasible with Cryptography
January 15, 2025
Autoren: Ilia Shumailov, Daniel Ramage, Sarah Meiklejohn, Peter Kairouz, Florian Hartmann, Borja Balle, Eugene Bagdasarian
cs.AI
Zusammenfassung
Wir interagieren oft mit nicht vertrauenswürdigen Parteien. Die Priorisierung der Privatsphäre kann die Effektivität dieser Interaktionen einschränken, da die Erreichung bestimmter Ziele die Weitergabe privater Daten erfordert. Traditionell wurde dieses Problem entweder durch die Suche nach vertrauenswürdigen Vermittlern oder durch den Aufbau kryptografischer Protokolle gelöst, die einschränken, wie viele Daten offengelegt werden, wie z.B. Mehrparteienberechnungen oder Nullwissenbeweise. Obwohl bedeutende Fortschritte bei der Skalierung kryptografischer Ansätze erzielt wurden, bleiben sie in Bezug auf die Größe und Komplexität der Anwendungen, für die sie verwendet werden können, begrenzt. In diesem Artikel argumentieren wir, dass leistungsfähige maschinelle Lernmodelle die Rolle eines vertrauenswürdigen Dritten übernehmen können, um sichere Berechnungen für Anwendungen zu ermöglichen, die zuvor nicht realisierbar waren. Insbesondere beschreiben wir Vertrauenswürdige Leistungsfähige Modellumgebungen (TCME) als alternativen Ansatz zur Skalierung sicherer Berechnungen, bei dem leistungsfähige maschinelle Lernmodelle unter Eingabe-/Ausgabe-Einschränkungen interagieren, mit expliziter Informationsflusskontrolle und expliziter Zustandslosigkeit. Dieser Ansatz zielt darauf ab, ein Gleichgewicht zwischen Privatsphäre und Recheneffizienz zu erreichen, um private Inferenz zu ermöglichen, wo klassische kryptografische Lösungen derzeit nicht realisierbar sind. Wir beschreiben eine Reihe von Anwendungsfällen, die durch TCME ermöglicht werden, und zeigen, dass sogar einige einfache klassische kryptografische Probleme bereits mit TCME gelöst werden können. Abschließend skizzieren wir aktuelle Einschränkungen und diskutieren den weiteren Weg zu ihrer Umsetzung.
English
We often interact with untrusted parties. Prioritization of privacy can limit
the effectiveness of these interactions, as achieving certain goals
necessitates sharing private data. Traditionally, addressing this challenge has
involved either seeking trusted intermediaries or constructing cryptographic
protocols that restrict how much data is revealed, such as multi-party
computations or zero-knowledge proofs. While significant advances have been
made in scaling cryptographic approaches, they remain limited in terms of the
size and complexity of applications they can be used for. In this paper, we
argue that capable machine learning models can fulfill the role of a trusted
third party, thus enabling secure computations for applications that were
previously infeasible. In particular, we describe Trusted Capable Model
Environments (TCMEs) as an alternative approach for scaling secure computation,
where capable machine learning model(s) interact under input/output
constraints, with explicit information flow control and explicit statelessness.
This approach aims to achieve a balance between privacy and computational
efficiency, enabling private inference where classical cryptographic solutions
are currently infeasible. We describe a number of use cases that are enabled by
TCME, and show that even some simple classic cryptographic problems can already
be solved with TCME. Finally, we outline current limitations and discuss the
path forward in implementing them.Summary
AI-Generated Summary