Fuente de la imagen: Generada por la herramienta de IA Unbounded
Dall-E y Stable Diffusion son solo el comienzo. Los chatbots en Internet están adquiriendo la capacidad de editar y crear imágenes, con empresas como Shutterstock y Adobe a la cabeza, a medida que los sistemas generados por IA ganan popularidad y las empresas trabajan para diferenciar sus productos de los de sus competidores. Pero estas nuevas capacidades de IA también plantean problemas familiares, como la manipulación no autorizada o la apropiación indebida de obras e imágenes en línea existentes. La tecnología de marca de agua puede ayudar a reducir este último problema, mientras que la nueva tecnología "PhotoGuard" desarrollada por MIT CSAIL puede ayudarnos a prevenir el primero.
Se informa que PhotoGuard funciona cambiando algunos píxeles de la imagen, lo que destruye la capacidad de la IA para comprender el contenido de la imagen. Estas "perturbaciones", como las llama el equipo de investigación, son invisibles para el ojo humano pero fáciles de leer para las máquinas. El método de ataque de "codificación" que introduce estos artefactos se dirige a la representación subyacente del modelo algorítmico de la imagen objetivo, las matemáticas complejas que describen la posición y el color de cada píxel en la imagen, lo que esencialmente evita que la IA entienda qué es. mirando (Nota: Los artefactos se refieren a diversas formas de imágenes que no existen en el objeto escaneado pero que aparecen en la imagen.)
Además, los métodos de ataque de "difusión" más avanzados y computacionalmente intensivos disfrazan una imagen como otra imagen para los ojos de la IA. Definirá una imagen de destino y optimizará las perturbaciones en su imagen para que sean similares a la imagen de destino. Cualquier edición que la IA intente hacer en estas imágenes "inmunes" se aplica a las imágenes "objetivo" falsas, produciendo imágenes que no parecen reales.
"El ataque del codificador hace que el modelo piense que la imagen de entrada (que se va a editar) es otra imagen (como una imagen en escala de grises)", dijo a Engadget Hadi Salman, estudiante de doctorado en el MIT y primer autor del artículo. "El ataque Diffusion obliga al modelo Diffusion a editar algunas de las imágenes de destino, que también pueden ser algunas imágenes grises o aleatorias". Imágenes protegidas para ingeniería inversa.
"Un enfoque colaborativo que involucre a desarrolladores de modelos, plataformas de redes sociales y legisladores puede ser una defensa eficaz contra la manipulación no autorizada de imágenes. Abordar este problema apremiante es fundamental hoy", dijo Salman en un comunicado. "Si bien estoy emocionado de poder contribuir a esta solución, todavía hay mucho trabajo por hacer para que esta protección sea práctica. Las empresas que desarrollan estos modelos deben invertir para abordar las amenazas que estas herramientas de IA pueden representar para una ingeniería inmune robusta. ."
El MIT presenta la tecnología PhotoGuard que protege las imágenes de ediciones maliciosas de IA
Escrito por: Andrew Tarantola
Fuente: Engadget
Fuente de la imagen: Generada por la herramienta de IA Unbounded
Dall-E y Stable Diffusion son solo el comienzo. Los chatbots en Internet están adquiriendo la capacidad de editar y crear imágenes, con empresas como Shutterstock y Adobe a la cabeza, a medida que los sistemas generados por IA ganan popularidad y las empresas trabajan para diferenciar sus productos de los de sus competidores. Pero estas nuevas capacidades de IA también plantean problemas familiares, como la manipulación no autorizada o la apropiación indebida de obras e imágenes en línea existentes. La tecnología de marca de agua puede ayudar a reducir este último problema, mientras que la nueva tecnología "PhotoGuard" desarrollada por MIT CSAIL puede ayudarnos a prevenir el primero.
Se informa que PhotoGuard funciona cambiando algunos píxeles de la imagen, lo que destruye la capacidad de la IA para comprender el contenido de la imagen. Estas "perturbaciones", como las llama el equipo de investigación, son invisibles para el ojo humano pero fáciles de leer para las máquinas. El método de ataque de "codificación" que introduce estos artefactos se dirige a la representación subyacente del modelo algorítmico de la imagen objetivo, las matemáticas complejas que describen la posición y el color de cada píxel en la imagen, lo que esencialmente evita que la IA entienda qué es. mirando (Nota: Los artefactos se refieren a diversas formas de imágenes que no existen en el objeto escaneado pero que aparecen en la imagen.)
Además, los métodos de ataque de "difusión" más avanzados y computacionalmente intensivos disfrazan una imagen como otra imagen para los ojos de la IA. Definirá una imagen de destino y optimizará las perturbaciones en su imagen para que sean similares a la imagen de destino. Cualquier edición que la IA intente hacer en estas imágenes "inmunes" se aplica a las imágenes "objetivo" falsas, produciendo imágenes que no parecen reales.
"El ataque del codificador hace que el modelo piense que la imagen de entrada (que se va a editar) es otra imagen (como una imagen en escala de grises)", dijo a Engadget Hadi Salman, estudiante de doctorado en el MIT y primer autor del artículo. "El ataque Diffusion obliga al modelo Diffusion a editar algunas de las imágenes de destino, que también pueden ser algunas imágenes grises o aleatorias". Imágenes protegidas para ingeniería inversa.
"Un enfoque colaborativo que involucre a desarrolladores de modelos, plataformas de redes sociales y legisladores puede ser una defensa eficaz contra la manipulación no autorizada de imágenes. Abordar este problema apremiante es fundamental hoy", dijo Salman en un comunicado. "Si bien estoy emocionado de poder contribuir a esta solución, todavía hay mucho trabajo por hacer para que esta protección sea práctica. Las empresas que desarrollan estos modelos deben invertir para abordar las amenazas que estas herramientas de IA pueden representar para una ingeniería inmune robusta. ."