Apposez un filigrane sur n'importe quoi avec des messages localisés.
Watermark Anything with Localized Messages
November 11, 2024
Auteurs: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze
cs.AI
Résumé
Les méthodes de tatouage d'image ne sont pas adaptées pour gérer de petites zones tatouées. Cela limite les applications dans des scénarios réels où des parties de l'image peuvent provenir de différentes sources ou avoir été modifiées. Nous présentons un modèle d'apprentissage profond pour le tatouage localisé d'images, appelé le Modèle Watermark Anything (WAM). L'incrusteur WAM modifie de manière imperceptible l'image d'entrée, tandis que l'extracteur segmente l'image reçue en zones tatouées et non tatouées et récupère un ou plusieurs messages cachés des zones identifiées comme tatouées. Les modèles sont entraînés conjointement à basse résolution et sans contraintes perceptuelles, puis post-entraînés pour l'imperceptibilité et les multiples tatouages. Les expériences montrent que WAM est compétitif avec les méthodes de pointe en termes d'imperceptibilité et de robustesse, notamment contre l'effacement et le montage, même sur des images haute résolution. De plus, il offre de nouvelles capacités : WAM peut localiser les zones tatouées dans les images montées et extraire des messages distincts de 32 bits avec moins d'une erreur de 1 bit à partir de plusieurs petites régions - pas plus grandes que 10% de la surface de l'image - même pour de petites images de 256 x 256 pixels.
English
Image watermarking methods are not tailored to handle small watermarked
areas. This restricts applications in real-world scenarios where parts of the
image may come from different sources or have been edited. We introduce a
deep-learning model for localized image watermarking, dubbed the Watermark
Anything Model (WAM). The WAM embedder imperceptibly modifies the input image,
while the extractor segments the received image into watermarked and
non-watermarked areas and recovers one or several hidden messages from the
areas found to be watermarked. The models are jointly trained at low resolution
and without perceptual constraints, then post-trained for imperceptibility and
multiple watermarks. Experiments show that WAM is competitive with state-of-the
art methods in terms of imperceptibility and robustness, especially against
inpainting and splicing, even on high-resolution images. Moreover, it offers
new capabilities: WAM can locate watermarked areas in spliced images and
extract distinct 32-bit messages with less than 1 bit error from multiple small
regions - no larger than 10% of the image surface - even for small 256times
256 images.Summary
AI-Generated Summary