Джерело зображення: створено інструментом Unbounded AI
Dall-E і Stable Diffusion – це лише початок. Чат-боти в Інтернеті отримують можливість редагувати та створювати зображення, а такі компанії, як Shutterstock і Adobe, лідирують, оскільки створені штучним інтелектом системи набувають популярності, а компанії працюють над тим, щоб виділити свої продукти серед продуктів своїх конкурентів. Але ці нові можливості штучного інтелекту також створюють знайомі проблеми, такі як несанкціоноване втручання або відверте незаконне привласнення існуючих онлайн-творів і зображень. Технологія водяних знаків може допомогти зменшити останню проблему, тоді як нова технологія «PhotoGuard», розроблена MIT CSAIL, може допомогти нам запобігти першій.
Повідомляється, що PhotoGuard працює, змінюючи деякі пікселі на зображенні, тим самим руйнуючи здатність ШІ розуміти вміст зображення. Ці «збурення», як їх називає дослідницька група, невидимі для людського ока, але легко сприймаються машинами. Метод атаки «кодування», який вводить ці артефакти, націлений на базове представлення цільового зображення в алгоритмічній моделі — складну математику, яка описує положення та колір кожного пікселя на зображенні — по суті, не даючи ШІ зрозуміти, що це таке. дивлячись на . (Примітка: Артефакти стосуються різних форм зображень, які не існують у сканованому об’єкті, але з’являються на зображенні.)
Крім того, більш просунуті та інтенсивні обчислювальні методи «дифузійної» атаки маскують зображення як інше зображення для очей ШІ. Він визначить цільове зображення та оптимізує збурення в його зображенні, щоб бути подібним до цільового зображення. Будь-які зміни, які штучний інтелект намагається внести в ці «імунні» зображення, застосовуються до підроблених «цільових» зображень, створюючи зображення, які не виглядають справжніми.
«Атака кодувальника змушує модель думати, що вхідне зображення (для редагування) є якимось іншим зображенням (наприклад, зображенням у відтінках сірого)», — сказав Engadget Хаді Салман, докторант Массачусетського технологічного інституту та перший автор статті. «Атака Diffusion змушує модель Diffusion редагувати деякі цільові зображення, які також можуть бути деякими сірими або випадковими зображеннями.» Захищені зображення для зворотного проектування.
«Спільний підхід із залученням розробників моделей, платформ соціальних медіа та політиків може стати ефективним захистом від несанкціонованого маніпулювання зображеннями. Вирішення цієї гострої проблеми є критичним сьогодні», — сказав Салман у релізі. «Хоч я радий змоги зробити свій внесок у це рішення, ще багато роботи, щоб зробити цей захист практичним. Компанії, які розробляють ці моделі, повинні інвестувати в цільове усунення загроз, які ці інструменти ШІ можуть становити для надійної імунної інженерії. ."
MIT представляє технологію PhotoGuard, яка захищає зображення від зловмисного редагування ШІ
Автор: Ендрю Тарантола
Джерело: Engadget
Джерело зображення: створено інструментом Unbounded AI
Dall-E і Stable Diffusion – це лише початок. Чат-боти в Інтернеті отримують можливість редагувати та створювати зображення, а такі компанії, як Shutterstock і Adobe, лідирують, оскільки створені штучним інтелектом системи набувають популярності, а компанії працюють над тим, щоб виділити свої продукти серед продуктів своїх конкурентів. Але ці нові можливості штучного інтелекту також створюють знайомі проблеми, такі як несанкціоноване втручання або відверте незаконне привласнення існуючих онлайн-творів і зображень. Технологія водяних знаків може допомогти зменшити останню проблему, тоді як нова технологія «PhotoGuard», розроблена MIT CSAIL, може допомогти нам запобігти першій.
Повідомляється, що PhotoGuard працює, змінюючи деякі пікселі на зображенні, тим самим руйнуючи здатність ШІ розуміти вміст зображення. Ці «збурення», як їх називає дослідницька група, невидимі для людського ока, але легко сприймаються машинами. Метод атаки «кодування», який вводить ці артефакти, націлений на базове представлення цільового зображення в алгоритмічній моделі — складну математику, яка описує положення та колір кожного пікселя на зображенні — по суті, не даючи ШІ зрозуміти, що це таке. дивлячись на . (Примітка: Артефакти стосуються різних форм зображень, які не існують у сканованому об’єкті, але з’являються на зображенні.)
Крім того, більш просунуті та інтенсивні обчислювальні методи «дифузійної» атаки маскують зображення як інше зображення для очей ШІ. Він визначить цільове зображення та оптимізує збурення в його зображенні, щоб бути подібним до цільового зображення. Будь-які зміни, які штучний інтелект намагається внести в ці «імунні» зображення, застосовуються до підроблених «цільових» зображень, створюючи зображення, які не виглядають справжніми.
«Атака кодувальника змушує модель думати, що вхідне зображення (для редагування) є якимось іншим зображенням (наприклад, зображенням у відтінках сірого)», — сказав Engadget Хаді Салман, докторант Массачусетського технологічного інституту та перший автор статті. «Атака Diffusion змушує модель Diffusion редагувати деякі цільові зображення, які також можуть бути деякими сірими або випадковими зображеннями.» Захищені зображення для зворотного проектування.
«Спільний підхід із залученням розробників моделей, платформ соціальних медіа та політиків може стати ефективним захистом від несанкціонованого маніпулювання зображеннями. Вирішення цієї гострої проблеми є критичним сьогодні», — сказав Салман у релізі. «Хоч я радий змоги зробити свій внесок у це рішення, ще багато роботи, щоб зробити цей захист практичним. Компанії, які розробляють ці моделі, повинні інвестувати в цільове усунення загроз, які ці інструменти ШІ можуть становити для надійної імунної інженерії. ."