Apposez un filigrane sur n'importe quoi avec des messages localisés.

Watermark Anything with Localized Messages

November 11, 2024
Auteurs: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze
cs.AI

Résumé

Les méthodes de tatouage d'image ne sont pas adaptées pour gérer de petites zones tatouées. Cela limite les applications dans des scénarios réels où des parties de l'image peuvent provenir de différentes sources ou avoir été modifiées. Nous présentons un modèle d'apprentissage profond pour le tatouage localisé d'images, appelé le Modèle Watermark Anything (WAM). L'incrusteur WAM modifie de manière imperceptible l'image d'entrée, tandis que l'extracteur segmente l'image reçue en zones tatouées et non tatouées et récupère un ou plusieurs messages cachés des zones identifiées comme tatouées. Les modèles sont entraînés conjointement à basse résolution et sans contraintes perceptuelles, puis post-entraînés pour l'imperceptibilité et les multiples tatouages. Les expériences montrent que WAM est compétitif avec les méthodes de pointe en termes d'imperceptibilité et de robustesse, notamment contre l'effacement et le montage, même sur des images haute résolution. De plus, il offre de nouvelles capacités : WAM peut localiser les zones tatouées dans les images montées et extraire des messages distincts de 32 bits avec moins d'une erreur de 1 bit à partir de plusieurs petites régions - pas plus grandes que 10% de la surface de l'image - même pour de petites images de 256 x 256 pixels.
English
Image watermarking methods are not tailored to handle small watermarked areas. This restricts applications in real-world scenarios where parts of the image may come from different sources or have been edited. We introduce a deep-learning model for localized image watermarking, dubbed the Watermark Anything Model (WAM). The WAM embedder imperceptibly modifies the input image, while the extractor segments the received image into watermarked and non-watermarked areas and recovers one or several hidden messages from the areas found to be watermarked. The models are jointly trained at low resolution and without perceptual constraints, then post-trained for imperceptibility and multiple watermarks. Experiments show that WAM is competitive with state-of-the art methods in terms of imperceptibility and robustness, especially against inpainting and splicing, even on high-resolution images. Moreover, it offers new capabilities: WAM can locate watermarked areas in spliced images and extract distinct 32-bit messages with less than 1 bit error from multiple small regions - no larger than 10% of the image surface - even for small 256times 256 images.

Summary

AI-Generated Summary

PDF194November 12, 2024