Dall-E và Khuếch tán ổn định chỉ là bước khởi đầu. Chatbot trên internet đang có khả năng chỉnh sửa và tạo ảnh, với các công ty như Shutterstock và Adobe dẫn đầu, khi các hệ thống do AI tạo ra trở nên phổ biến và các công ty nỗ lực phân biệt sản phẩm của họ với sản phẩm của đối thủ cạnh tranh. Nhưng những khả năng AI mới này cũng đặt ra những vấn đề quen thuộc, chẳng hạn như giả mạo trái phép hoặc chiếm đoạt hoàn toàn các tác phẩm và hình ảnh trực tuyến hiện có. Công nghệ đánh dấu chìm có thể giúp giảm thiểu vấn đề thứ hai, trong khi công nghệ "PhotoGuard" mới do MIT CSAIL phát triển có thể giúp chúng tôi ngăn chặn vấn đề thứ nhất.
Có thông tin cho rằng PhotoGuard hoạt động bằng cách thay đổi một số pixel trong ảnh, từ đó phá hủy khả năng hiểu nội dung của ảnh của AI. Những "nhiễu loạn" này, như cách gọi của nhóm nghiên cứu, không thể nhìn thấy bằng mắt người nhưng lại dễ đọc đối với máy móc. Phương pháp tấn công "mã hóa" giới thiệu các tạo phẩm này nhắm vào biểu diễn cơ bản của mô hình thuật toán của hình ảnh mục tiêu -- toán học phức tạp mô tả vị trí và màu sắc của từng pixel trong ảnh -- về cơ bản là ngăn AI hiểu nó là gì nhìn vào . (Lưu ý: Tạo tác đề cập đến các dạng hình ảnh khác nhau không tồn tại trong đối tượng được quét nhưng xuất hiện trên hình ảnh.)
Ngoài ra, các phương pháp tấn công "khuếch tán" tiên tiến và chuyên sâu hơn về mặt tính toán sẽ ngụy trang một hình ảnh thành một hình ảnh khác cho mắt AI. Nó sẽ xác định một hình ảnh mục tiêu và tối ưu hóa các nhiễu loạn trong hình ảnh của nó để giống với hình ảnh mục tiêu. Bất kỳ chỉnh sửa nào mà AI cố gắng thực hiện trên những hình ảnh "miễn dịch" này đều được áp dụng cho hình ảnh "mục tiêu" giả, tạo ra hình ảnh trông không giống thật.
“Cuộc tấn công vào bộ mã hóa khiến mô hình nghĩ rằng hình ảnh đầu vào (sẽ được chỉnh sửa) là một số hình ảnh khác (chẳng hạn như hình ảnh thang độ xám)”, Hadi Salman, nghiên cứu sinh tiến sĩ tại MIT và là tác giả đầu tiên của bài báo, nói với Engadget. "Cuộc tấn công Khuếch tán buộc mô hình Khuếch tán phải chỉnh sửa một số hình ảnh mục tiêu, cũng có thể là một số hình ảnh màu xám hoặc ngẫu nhiên." Hình ảnh được bảo vệ cho kỹ thuật đảo ngược.
"Một cách tiếp cận hợp tác liên quan đến các nhà phát triển mô hình, nền tảng truyền thông xã hội và các nhà hoạch định chính sách có thể là một biện pháp bảo vệ hiệu quả chống lại việc thao túng hình ảnh trái phép. Việc giải quyết vấn đề cấp bách này là rất quan trọng hiện nay", Salman cho biết trong một thông cáo. "Mặc dù tôi rất hào hứng khi có thể đóng góp vào giải pháp này, nhưng vẫn còn rất nhiều việc phải làm để việc bảo vệ này trở nên thiết thực. Các công ty đang phát triển các mô hình này cần đầu tư vào việc nhắm mục tiêu các mối đe dọa mà các công cụ AI này có thể gây ra cho kỹ thuật miễn dịch mạnh mẽ ."
MIT tiết lộ công nghệ PhotoGuard bảo vệ hình ảnh khỏi các chỉnh sửa AI độc hại
Được viết bởi: Andrew Tarantola
Nguồn: Engadget
Nguồn hình ảnh: Được tạo bởi công cụ Unbounded AI
Dall-E và Khuếch tán ổn định chỉ là bước khởi đầu. Chatbot trên internet đang có khả năng chỉnh sửa và tạo ảnh, với các công ty như Shutterstock và Adobe dẫn đầu, khi các hệ thống do AI tạo ra trở nên phổ biến và các công ty nỗ lực phân biệt sản phẩm của họ với sản phẩm của đối thủ cạnh tranh. Nhưng những khả năng AI mới này cũng đặt ra những vấn đề quen thuộc, chẳng hạn như giả mạo trái phép hoặc chiếm đoạt hoàn toàn các tác phẩm và hình ảnh trực tuyến hiện có. Công nghệ đánh dấu chìm có thể giúp giảm thiểu vấn đề thứ hai, trong khi công nghệ "PhotoGuard" mới do MIT CSAIL phát triển có thể giúp chúng tôi ngăn chặn vấn đề thứ nhất.
Có thông tin cho rằng PhotoGuard hoạt động bằng cách thay đổi một số pixel trong ảnh, từ đó phá hủy khả năng hiểu nội dung của ảnh của AI. Những "nhiễu loạn" này, như cách gọi của nhóm nghiên cứu, không thể nhìn thấy bằng mắt người nhưng lại dễ đọc đối với máy móc. Phương pháp tấn công "mã hóa" giới thiệu các tạo phẩm này nhắm vào biểu diễn cơ bản của mô hình thuật toán của hình ảnh mục tiêu -- toán học phức tạp mô tả vị trí và màu sắc của từng pixel trong ảnh -- về cơ bản là ngăn AI hiểu nó là gì nhìn vào . (Lưu ý: Tạo tác đề cập đến các dạng hình ảnh khác nhau không tồn tại trong đối tượng được quét nhưng xuất hiện trên hình ảnh.)
Ngoài ra, các phương pháp tấn công "khuếch tán" tiên tiến và chuyên sâu hơn về mặt tính toán sẽ ngụy trang một hình ảnh thành một hình ảnh khác cho mắt AI. Nó sẽ xác định một hình ảnh mục tiêu và tối ưu hóa các nhiễu loạn trong hình ảnh của nó để giống với hình ảnh mục tiêu. Bất kỳ chỉnh sửa nào mà AI cố gắng thực hiện trên những hình ảnh "miễn dịch" này đều được áp dụng cho hình ảnh "mục tiêu" giả, tạo ra hình ảnh trông không giống thật.
“Cuộc tấn công vào bộ mã hóa khiến mô hình nghĩ rằng hình ảnh đầu vào (sẽ được chỉnh sửa) là một số hình ảnh khác (chẳng hạn như hình ảnh thang độ xám)”, Hadi Salman, nghiên cứu sinh tiến sĩ tại MIT và là tác giả đầu tiên của bài báo, nói với Engadget. "Cuộc tấn công Khuếch tán buộc mô hình Khuếch tán phải chỉnh sửa một số hình ảnh mục tiêu, cũng có thể là một số hình ảnh màu xám hoặc ngẫu nhiên." Hình ảnh được bảo vệ cho kỹ thuật đảo ngược.
"Một cách tiếp cận hợp tác liên quan đến các nhà phát triển mô hình, nền tảng truyền thông xã hội và các nhà hoạch định chính sách có thể là một biện pháp bảo vệ hiệu quả chống lại việc thao túng hình ảnh trái phép. Việc giải quyết vấn đề cấp bách này là rất quan trọng hiện nay", Salman cho biết trong một thông cáo. "Mặc dù tôi rất hào hứng khi có thể đóng góp vào giải pháp này, nhưng vẫn còn rất nhiều việc phải làm để việc bảo vệ này trở nên thiết thực. Các công ty đang phát triển các mô hình này cần đầu tư vào việc nhắm mục tiêu các mối đe dọa mà các công cụ AI này có thể gây ra cho kỹ thuật miễn dịch mạnh mẽ ."