로컬 메시지로 모든 것에 워터마크 삽입하기
Watermark Anything with Localized Messages
November 11, 2024
저자: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze
cs.AI
초록
이미지 워터마킹 방법은 작은 워터마크 영역을 처리하는 데 적합하지 않습니다. 이는 이미지의 일부가 다른 소스에서 가져온 것이거나 편집된 경우 실제 시나리오에서의 응용을 제한합니다. 우리는 지역화된 이미지 워터마킹을 위한 딥러닝 모델인 'Watermark Anything Model (WAM)'을 소개합니다. WAM 임베더는 입력 이미지를 감지할 수 없이 수정하고, 추출기는 수신된 이미지를 워터마크된 영역과 비워터마크된 영역으로 분할하고 찾아낸 워터마크된 영역에서 하나 이상의 숨겨진 메시지를 복구합니다. 모델은 저해상도에서 지각 제약 없이 공동으로 훈련을 받은 후 감지할 수 없음과 다중 워터마크를 위해 사후 훈련을 받습니다. 실험 결과, WAM은 인식할 수 없음과 견고성 측면에서 최첨단 방법과 경쟁력이 있으며, 특히 인페인팅 및 스플라이싱에 대해 뛰어난 성능을 보입니다. 더불어, WAM은 스플라이스된 이미지에서 워터마크된 영역을 찾아내고, 256x256 크기의 작은 이미지에서도 이미지 표면의 10%보다 작은 여러 작은 영역에서 1비트 오류 미만으로 구별된 32비트 메시지를 추출할 수 있는 새로운 기능을 제공합니다.
English
Image watermarking methods are not tailored to handle small watermarked
areas. This restricts applications in real-world scenarios where parts of the
image may come from different sources or have been edited. We introduce a
deep-learning model for localized image watermarking, dubbed the Watermark
Anything Model (WAM). The WAM embedder imperceptibly modifies the input image,
while the extractor segments the received image into watermarked and
non-watermarked areas and recovers one or several hidden messages from the
areas found to be watermarked. The models are jointly trained at low resolution
and without perceptual constraints, then post-trained for imperceptibility and
multiple watermarks. Experiments show that WAM is competitive with state-of-the
art methods in terms of imperceptibility and robustness, especially against
inpainting and splicing, even on high-resolution images. Moreover, it offers
new capabilities: WAM can locate watermarked areas in spliced images and
extract distinct 32-bit messages with less than 1 bit error from multiple small
regions - no larger than 10% of the image surface - even for small 256times
256 images.Summary
AI-Generated Summary