Le MIT dévoile la technologie PhotoGuard qui protège les images des modifications malveillantes de l'IA

Écrit par : Andrew Tarantola

Source : Engadget

Source de l'image : générée par l'outil d'IA illimitée

Dall-E et Stable Diffusion ne sont qu'un début. Les chatbots sur Internet acquièrent la capacité d'éditer et de créer des images, avec des entreprises comme Shutterstock et Adobe en tête, alors que les systèmes générés par l'IA gagnent en popularité et que les entreprises s'efforcent de différencier leurs produits de ceux de leurs concurrents. Mais ces nouvelles capacités d'IA posent également des problèmes familiers, tels que la falsification non autorisée ou le détournement pur et simple d'œuvres et d'images en ligne existantes. La technologie de filigrane peut aider à réduire ce dernier problème, tandis que la nouvelle technologie "PhotoGuard" développée par MIT CSAIL peut nous aider à prévenir le premier.

Il est rapporté que PhotoGuard fonctionne en modifiant certains pixels de l'image, détruisant ainsi la capacité de l'IA à comprendre le contenu de l'image. Ces « perturbations », comme les appelle l'équipe de recherche, sont invisibles pour l'œil humain mais faciles à lire pour les machines. La méthode d'attaque "d'encodage" qui introduit ces artefacts cible la représentation sous-jacente du modèle algorithmique de l'image cible - les mathématiques complexes qui décrivent la position et la couleur de chaque pixel de l'image - empêchant essentiellement l'IA de comprendre de quoi il s'agit. regardant. (Remarque : Les artefacts font référence à diverses formes d'images qui n'existent pas dans l'objet numérisé mais qui apparaissent sur l'image.)

De plus, des méthodes d'attaque de "diffusion" plus avancées et plus gourmandes en calculs déguisent une image en une autre image pour les yeux de l'IA. Il définira une image cible et optimisera les perturbations dans son image pour qu'elle soit similaire à l'image cible. Toutes les modifications que l'IA essaie d'apporter à ces images "immunisées" sont appliquées aux fausses images "cibles", produisant des images qui ne semblent pas réelles.

"L'attaque de l'encodeur fait penser au modèle que l'image d'entrée (à éditer) est une autre image (comme une image en niveaux de gris)", a déclaré Hadi Salman, étudiant au doctorat au MIT et premier auteur de l'article, à Engadget. "Et une attaque par diffusion oblige le modèle de diffusion à modifier une image cible, qui peut également être une image grise ou aléatoire." Images protégées pour la rétro-ingénierie.

"Une approche collaborative impliquant des développeurs de modèles, des plateformes de médias sociaux et des décideurs politiques peut constituer une défense efficace contre la manipulation non autorisée d'images. Il est aujourd'hui essentiel de résoudre ce problème urgent", a déclaré Salman dans un communiqué. "Bien que je sois ravi de pouvoir contribuer à cette solution, il reste encore beaucoup de travail à faire pour rendre cette protection pratique. Les entreprises développant ces modèles doivent investir dans le ciblage des menaces que ces outils d'IA peuvent poser pour une ingénierie immunitaire robuste. ."

Voir l'original
  • Récompense
  • Commentaire
  • Partager
Commentaire
Aucun commentaire